DeepSeek-R1 免费本地部署 和 Python 调用

1、安装 Ollama 及R1本地测试
打开ollama官网
点击download,根据系统选择对应的安装包
下载后点击Install安装
通过Win+R打开命令行
cmd
输入代码测试安装成功,同时查看相关命令
ollama -v
下面回到ollama官网点击左上角Models
如果你的显卡有8G以上显存或8G以上内存,可以尝试7b的模型,如果没有就直接选择1.5b模型。下面是集中模型的下载代码,可以直接复制,粘贴到命令行。
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
复制安装命令在命令行,enter运行,等待下载完成。
通过ollama list查看已安装模型
ollama list
通过ollama run +模型名称运行模型,我这里是7b模型因此使用
ollama run deepseek-r1:7b
如果是1.5b模型则使用
ollama run deepseek-r1:1.5b
现在就可以开始对话了

如想要更改MODELS,HOST,等环境变量

### 配置与调用 DeepSeek-R1 API 完成本地部署后,为了能够顺利调用DeepSeek-R1的API接口,需先配置好必要的环境变量[^4]。具体来说: #### 设置环境变量 确保已正确设置了`OLLAMA_MODELS`、`OLLAMA_HOST`以及`OLLAMA_ORIGINS`这些环境变量。这一步骤对于指定模型存储路径、服务监听地址及允许跨域请求至关重要。 ```bash set OLLAMA_MODELS=E:\ollama set OLLAMA_HOST=127.0.0.1:8000 set OLLAMA_ORIGINS=* ``` 以上命令适用于Windows操作系统下的CMD窗口;如果是Linux或macOS,则应使用export指令代替set来设置环境变量。 #### 获取并验证API Key 前往[deepseek官网](https://www.deepseek.com/)登录账户,在API Keys页面创建一个新的API密钥[^2]。保存此密钥作为后续HTTP请求的身份认证凭证。 #### 发起API请求 构建针对所需功能的具体RESTful风格的HTTP GET/POST请求时,记得附带Authorization头部字段携带刚才获取到的API key。下面给出Python语言实现的一个简单例子,展示如何利用requests库发送带有身份验证信息的数据查询请求给本地运行中的DeepSeek-R1实例: ```python import requests url = "http://127.0.0.1:8000/v1/query" headers = { 'Content-Type': 'application/json', 'Authorization': 'Bearer YOUR_API_KEY_HERE' } data = {"prompt": "你好"} response = requests.post(url, json=data, headers=headers) print(response.json()) ``` 这段代码片段展示了向位于localhost上的DeepSeek-R1服务器提交一个问题字符串,并打印返回的结果。请注意替换其中的YOUR_API_KEY_HERE为你自己的有效API键值。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值