本章介绍在window上部署 DeepSeek R1-32B :需要安装的有:Ollama,python 3.10,DeepSeek ,Open WebUI。
一、安装Ollama
下载地址 https://ollama.com/ 直接下载window的。下载完成后直接一路安装就行。(这里默认安装在C盘 模型下载也是C盘,所以C盘一定要大 (不过!!!!下面有教你怎么修改下载模型地址 别让它下载到C盘)
安装完成后可以看看是否安装成功:ollama -v
或者浏览器访问下: http://localhost:11434/
二、设置Ollama环境变量
常用Ollama环境变量介绍
环境变量还有很多 网上有很多 可自行搜索
为什么需要配置OLLAMA_HOST及OLLAMA_ORIGINS?,OLLAMA_MODELS
- 突破本地限制:局域网访问
默认情况下,Ollama仅监听127.0.0.1:11434,仅允许本机访问。通过设置OLLAMA_HOST=0.0.0.0:端口号,可将服务绑定到所有网络接口,实现局域网内多设备共享模型资源。
- 解决跨域问题:Web UI集成
浏览器安全策略会阻止跨域请求,例如使用Open WebUI或LobeChat等前端工具时。配置OLLAMA_ORIGINS=*(允许所有来源)或指定域名列表(如http://localhost:3000,http://yourdomain.com"),可解除跨域限制。
- 安全与性能