【Deepseek】一文掌握DeepSeek本地部署+C#接口调用+局域网访问!全攻略来了!

大家好,我是编程乐趣。
DeepSeek大火,网络上也看到很多人分享本地部署心得。但想要更细了解,还是要自己本地部署一次。
我这次部署目标,就是在局域网服务器部署,并让局域网其他电脑可以直接访问。
选择方案也是当前非常流行的:Ollma+Page Assist浏览器插件。

一、安装Ollama

Ollama作为本地部署大模型的方案,还是非常不错的。

1、跨平台:支持 macOS、Linux 和 Windows。

2、市面主流开源模型都支持:包括Llama 3.3, DeepSeek-R1, Phi-4, Gemma 2等54个开源模型。

3、REST API:Ollama提供对外API能力,想要自己开发客户端、或者集成到应用系统都是非常方便的。

4、生态完善:众多开源Web项目、开源桌面软件支持Ollama,还有终端工具、移动应用、开发工具库等开源项目。
下载地址:https://ollama.com/download
在这里插入图片描述
安装Ollama还是比较简单的,下载安装包后,直接安装就行。我这边选择的是Windows版本。

在这里插入图片描述
然后输入:ollama ,显示有很多可选命令表示安装成功了
在这里插入图片描述

二、修改Ollama默认配置

Ollama安装后,我们还需要根据需求修改对应的配置。
我们使用Ollama时,需要从网络下载大模型,默认存储在C盘,很容易导致C盘空间不足。
可以通过修改系统环境变量,来修改配置。
添加环境变量:OLLAMA_MODELS,并指定模型路径。
在这里插入图片描述
添加环境变量:OLLAMA_HOST,并允许外部访问,这边填写:0.0.0.0,代表允许任何电脑访问。
在这里插入图片描述
修改配置后,记得重启Ollama。
我暂时就需要这两个,其他更多配置信息,大家可以查看官方文档:
https://github.com/ollama/ollama/tree/main/docs

三、下载并安装模型

Ollama支持模型非常多,我们这边选择

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

厦门德仔

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值