linux deepseek-r1模型安装

安装ollama

将下载的离线包上传到主机上,解压到制定目录

配置service

vi /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/data/ollama/apps/ollama/bin/ollama serve
User=root
Group=root
Restart=always
RestartSec=3
Environment="PATH=$PATH"
#指定模型存储位置,可以直接在外网下载好模型,打包解压到内网的ollama的模型目录下,就能实现离线安装了
Environment="OLLAMA_MODELS=/data/ollama/apps/ollama/models"
#解决ollama无法访问的问题
Environment="OLLAMA_HOST=0.0.0.0:11434"

[Install]
WantedBy=default.target

启动ollama

[root@host ollama]# systemctl enable ollama
Created symlink from /etc/systemd/system/default.target.wants/ollama.service to /etc/systemd/system/ollama.se
### DeepSeek-R1 模型概述 DeepSeek-R1 是一款专为企业级应用和个人开发者设计的大语言模型。该模型具有强大的自然语言处理能力,在多种应用场景中表现出色,能够满足不同的业务需求[^1]。 #### 特点与优势 - **参数量适中**:相比更大规模的变体如 DeepSeek-R1-32B,DeepSeek-R1 的参数量更少,更适合资源有限的环境。 - **高效能表现**:尽管参数较少,但在许多实际测试案例中依然保持了较高的准确性和响应速度。 - **灵活性强**:支持多平台部署,无论是云端服务器还是本地工作站都能轻松安装运行。 ### 使用教程 为了方便用户快速上手并充分利用 DeepSeek-R1 的功能特性,以下是详细的使用指南: #### 准备工作 确保目标机器已安装 Python 3.x 及必要的依赖库(如 PyTorch)。对于 Windows 用户建议通过 Anaconda 来管理虚拟环境;Linux 和 macOS 则可以直接利用 pip 工具完成包管理。 #### 安装步骤 下载官方发布的预训练权重文件后解压至指定目录下。接着按照如下命令依次执行以加载模型实例: ```bash pip install deepseek-r1==latest_version_number ``` 创建一个新的 Python 脚本来初始化模型对象,并调用预测接口传入待解析文本字符串: ```python from deepseek_r1 import DeepSeekR1Model model = DeepSeekR1Model(model_path='./path_to_model_weights') result = model.predict("输入你想让模型理解的内容") print(result) ``` ### 下载方法 访问官方网站获取最新版本的 DeepSeek-R1 预训练模型压缩包链接。通常情况下会提供两种形式供选择——仅含权重的数据集以及完整的源码工程。前者适用于希望直接使用的场景;后者则面向那些想要深入了解内部机制或是二次开发的技术人员。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值