重新出发的LLM本地部署——DeepSeek加持下的Ollama+OpenWebUI快速部署

DeepSeek 这真的是太惊艳了,发布出来的模型这么能打,在线的版本使用起来也是丝滑连招,感觉效果比起之前一直用智谱 chatglm4 更好用,想着本地化部署一下。
本来以为,会和之前在开发测试 transformers 的模型和代码一样,需要自己去配置写 langchain 和 streamlit 的,但是看下来,实际上最简单并且家用的方法。
可以直接 Windows 装 Ollama ,Docker 化部署 OpenWebUI,就能够本地局域网使用了,于是开始配置部署,并进行下记录。
这份记录可能会随着本地配置的内容,调整一些细节,供各位看官参考。

CUDA

好久没有用自己的台式机显卡去做一些开发了,之前还是在用的CUDA11.0,担心是不是需要升级下,配合新的系统,所以直接下了12.6的CUDA包,安装并清理了历史CUDA环境

Ollama

ollama官网下载,window基本上是傻瓜式的
默认安装完了,在 C:\Users{your_user_name}\AppData\Local\Programs\Ollama下面,磁盘不够可以拷贝到其他盘,然后链接回来

mklink /D "C:\Users\{your_user_name}\AppData\Local\Programs\Ollama" "D:\software\Ollama"

打开一个命令窗口,输入ollama能看到帮助命令使用方式
在这里插入图片描述
我本地有一个2080TI的卡,Deepseek能跑到14b的模型

### 如何在本地环境中部署 DeepSeek-Ollama 和 ChatWise #### 准备工作 为了成功部署 DeepSeek-Ollama 和 ChatWise,需先确认环境配置满足最低需求。通常情况下,这包括安装 Python 解释器以及必要的依赖库。 #### 下载所需软件包 访问官方仓库获取最新版本的 DeepSeek-Ollama 和 ChatWise 安装文件。确保下载适用于当前操作系统的二进制文件或源码压缩包[^1]。 #### 配置开发环境 创建一个新的虚拟环境来隔离项目所需的Python包: ```bash python3 -m venv myenv source myenv/bin/activate # Linux/MacOS myenv\Scripts\activate # Windows ``` 接着安装依赖项: ```bash pip install -r requirements.txt ``` 此命令会读取 `requirements.txt` 文件中的列表并自动安装所有必需的第三方模块。 #### 启动服务端口 启动应用程序之前,可能需要编辑配置文件以适应个人网络设置或其他偏好选项。完成这些调整后,可以通过如下方式启动服务器: 对于 DeepSeek-Ollama: ```bash python app_ollama.py ``` 而对于 ChatWise,则执行: ```bash python chatwise_server.py ``` 一旦程序正常运行,终端应当显示出提示符 (`>>>`) 表明已准备好接收输入指令[^2]。 #### 测试连接 打开浏览器窗口,导航至 http://localhost:指定端口号 地址查看Web界面是否加载成功。如果一切顺利的话,现在就可以开始与模型互动交流了! #### 数据安全性考量 值得注意的是,在使用此类开源模型的过程中,所有的交互记录都将保存于用户的本地机器上,从而保障了较高的隐私水平[^3]。 #### 可视化管理平台 除了基本的功能外,某些实现还提供了图形化的监控面板用于简化管理和调试过程。例如,ChatWise 支持多种流行的大规模预训练语言模型接口接入,使得开发者能够轻松切换不同类型的LLM实例进行实验测试[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值