【AI】在Windows10下部署本地LLM RAG服务

54 篇文章 ¥49.90 ¥99.00
本文档详细介绍了如何在Windows10系统下,避开Ubuntu虚拟子系统的环境问题,直接通过CMD部署LLM RAG服务。首先从ollama官网下载并安装Windows版本,然后使用ollama和langchain命令行工具下载模型和创建应用。在项目文件夹中编辑启动服务的Python文件,插入必要的路由语句,并修改路径表示为正斜杠。最后启动服务,通过提供的URL访问Playground开始使用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

【背景】

上一篇介绍了如何用Ubuntu命令行部署ollama LLM+RAG服务。部署后等于拥有了基于内网的AI Saas服务,其它内网用户可以通过默认的网址访问Playground对AI进行问答。

【概念】

RAG:通过词向量技术,将文件内容向量化后,通过语言模型以自然交流的形式得到文本相关的内容。可以形容为与文件库或知识库对话的系统。
RAG的后台向量库并不需要对LLM产生影响,LLM是人与向量库(知识库)之间的交流媒介。因此知识库的内容可以随时增减,而不用经历高成本的finetube过程。

【为什么要再写一篇Win10下的部署方法】

实践下来发现,win10虽然可以搞Ubuntu虚拟子系统来以Linux的方式部署ollama框架的ai服务,但是还是存在curl命令下载慢,经常timeout和其它环境问题。
直接在Win10用CMD进行部署则可以成功规避大量此类问题。

【部署方法】

  1. 首先,直接ollama官网下载win版本的安装包,发现比起痛苦的curl来简直神速了。ollama官网
  2. 下载后无脑下一步安装。
  3. 安装完成后,管理员权限打开CMD
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

踏雪无痕老爷子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值