Deepseek本地部署及应用

Deepseek本地部署及应用

ollama软件下载

下载ollama软件:ollama官网
在这里插入图片描述
在这里插入图片描述
安装好之后,打开电脑cmd输入ollama,得到以下界面表示安装成功:
在这里插入图片描述

模型下载

下载deekseekR1模型:下载地址,选择合适大小的模型进行下载:

电脑没有独立显卡:选择1.5b模型
有独显,显存4G或8G:选择7b或8b模型
更高的配置,可以自行尝试!
在这里插入图片描述

我选择了14B作为示例进行下载,复制下方代码,粘贴到cmd
在这里插入图片描述

等待下载完成
在这里插入图片描述

cherry studio终端使用

下载cherry studio:cherry studio官网
在这里插入图片描述
打开cherry studio设置,模型服务,找到Ollama,打开开关,点击管理
在这里插入图片描述
选择本地模型,回到首页即可进行对话。
在这里插入图片描述
在这里插入图片描述

OpenWebUI使用

  1. 新建虚拟环境
conda create -n python311 python==3.11
  1. 激活虚拟环境
conda activate python311
  1. 下载open-webui
 pip config set global.index-url https://mirrors.aliyun.com/pypi/simple
 pip install open-webui
  1. 启动服务
    由于huggingface内网很难连接,所以将在C:\Users\XXX用户\.cache\huggingface\hub放入下解压模型

Open WebUI运行所需模型下载:https://wwye.lanzouj.com/i4ct72cgrp1e

在这里插入图片描述
开启服务(需要提前运行ollama 模型)

open-webui serve

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

python调用

参考API
方便将本地大模型接入网站或者其他界面进行应用开发。

import requests
message_list=[]

while True:
    text =input("请输入:")

    user_dict={"role":"user","content":text}  # 正确的字典定义
    message_list.append(user_dict)

    readline=requests.post(
        url='http://localhost:11434/api/chat',
        json={
            "model":"deepseek-r1:14b",
            "messages":message_list,
            "stream":False
        }
    )
    data_dict=readline.json()
    res_msg_dict=data_dict["message"]
    print(res_msg_dict)

    message_list.append(res_msg_dict)

运行即可开始对话。
在这里插入图片描述

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值