本地部署deepseek

1.访问ollama.com模型官网,下载安装对应的客户端

2.安装好客户端后到ollama官网去搜索对应的模型,这里选择deepseek-r1模型3.选择模型大小,复制下载的命令,运行开始下载

4.安装完成后运行ollama list查看本地模型,出现模型名称代表下载成功

 5.安装可视化界面平台 也可以启动网页版
Chatbox AI官网

 6.配置Chatbox

### 本地部署 DeepSeek 大语言模型的完整指南 在本地环境中部署 DeepSeek 大语言模型可以通过 Ollama 框架实现。Ollama 是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)设计[^3]。以下是具体步骤: #### 1. 硬件与环境准备 根据硬件配置选择合适的模型版本。DeepSeek 提供了多种参数量的模型,包括轻量版(1.5B 参数)和高性能版(7B 参数)。如果设备性能允许,可以选择更大参数量的模型以获得更好的效果[^2]。 - **轻量版(1.5B 参数)**:适合较低配置的设备。 - **高性能版(7B 参数)**:推荐用于性能较高的设备。 #### 2. 安装 Ollama 首先需要安装 Ollama 框架。Ollama 支持多种操作系统,包括 Linux、Mac 和 Windows。以下以 Linux 系统为例说明安装过程: ```bash # 下载并安装 Ollama curl https://ollama.ai/install.sh | sh ``` 验证安装是否成功: ```bash ollama version ``` #### 3. 拉取 DeepSeek 模型 使用 `ollama pull` 命令从远程仓库拉取 DeepSeek 模型。根据硬件选择合适的版本: - 轻量版(1.5B 参数): ```bash ollama pull deepseek-r1:1.5b ``` - 高性能版(7B 参数): ```bash ollama pull deepseek-r1:7b ``` 模型文件默认存储路径为 `/usr/share/ollama/.ollama/models`,可以通过设置环境变量修改存储位置: ```bash export OLLAMA_MODELS="/mnt/ssd/models" ``` #### 4. 启动模型服务 使用 `ollama run` 命令启动模型服务。以下命令将以后台模式运行 DeepSeek 模型: ```bash ollama run deepseek-r1:7b ``` #### 5. 测试对话功能 模型启动后,可以进行简单的测试对话。例如: ```bash >>> 你好,请写一段 Python 排序代码 ``` #### 6. 文件存储路径 默认情况下,模型文件存储在 `/usr/share/ollama/.ollama/models` 目录下。如果需要更改存储路径,可以通过设置环境变量实现: ```bash export OLLAMA_MODELS="/mnt/ssd/models" ``` ### 示例代码 以下是一个简单的 Python 排序代码示例: ```python def quick_sort(arr): if len(arr) <= 1: return arr else: pivot = arr[len(arr) // 2] left = [x for x in arr if x < pivot] middle = [x for x in arr if x == pivot] right = [x for x in arr if x > pivot] return quick_sort(left) + middle + quick_sort(right) print(quick_sort([3, 6, 8, 10, 1, 2, 1])) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值