三步搞定本地部署deepseek R1模型,不联网也可以流畅使用

目录

1、ollama安装 

1.1、windows下载ollama并安装

1.2、Docker安装

2、部署deepseek r1

2.1、模型选择

2.2、 运行 

 3、使用chatbox可视化

3.1、下载chatbox

3.2、 安装

3.3、配置模型 


1、ollama安装 

1.1、windows下载ollama并安装

1.1、进入ollama官网(Ollama

1.2、点击Download,我这里下载的是windows的

 如果下载失败,可以从GitCode - 全球开发者的开源社区,开源代码托管平台下载

 

注意:如果还是下载失败,可以从百度网盘下载:Ollama
链接: 百度网盘 请输入提取码 提取码: 77i5

 1.3、下载完后,双击,点击install安装

运行安装程序:下载完成后,双击运行安装包,并按照提示完成安装  

验证安装:安装完成后,打开命令提示符(cmd)窗口,输入ollama命令,如果显示Ollama相关的信息,则证明安装已经成功  

<think>好的,用户想在本地部署DeepSeek R1大模型,我需要根据提供的引用资料来整理步骤。首先,引用1提到了安装OllamaDeepSeek-R1模型ChatBox。引用2补充了安装依赖和可能需要的视频教程。 我需要先确定用户的操作系统,但引用里提到的是Win11。步骤可能包括安装Ollama,下载模型安装ChatBox并配置。可能还需要安装依赖项,比如Python环境或其他库。要注意是否需要管理员权限或者环境变量的设置。 用户可能遇到的问题包括安装过程中的依赖缺失,如何正确配置ChatBox连接本地模型,以及模型文件的存放路径是否正确。需要详细说明每个步骤,确保用户能逐步跟随。同时,要提醒用户参考提供的引用和视频教程,尤其是遇到问题时如何查找帮助,比如B站的视频演示。 另外,生成的相关问题需要围绕部署的常见问题、模型应用场景和性能优化,这些都是用户可能进一步想了解的内容。确保回答结构清晰,分步骤说明,避免使用专业术语过多,保持口语化但准确。</think>### 本地部署 DeepSeek-R1 大模型的步骤 #### 1. 安装 Ollama 框架 Ollama 是运行大模型的基础框架,需先完成以下操作: - 访问 [Ollama 官网](https://ollama.ai/) 下载 Windows 版安装包 - 双击安装包按向导完成安装,需确保安装路径无中文和空格[^1] #### 2. 安装模型文件 ```bash ollama run deepseek-r1 ``` 此命令会自动下载约 7GB 的模型文件(具体大小取决于模型版本),下载完成后模型会自动加载到内存[^1] #### 3. 安装 ChatBox 客户端 - 从 [ChatBox 官网](https://chatboxai.app/) 下载 Windows 客户端 - 安装后打开设置,将 API 地址修改为 `http://localhost:11434` - 在模型选择栏输入 `deepseek-r1` 完成本地连接 #### 4. 验证部署 ```python # 测试代码示例 import ollama response = ollama.generate(model='deepseek-r1', prompt='你好') print(response['response']) ``` 若返回正常响应,说明部署成功[^2]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值