如何最轻松的将deepseek大模型本地化+可视化(小白必看!!!)

  1. 首先我们进入Ollama的官方网站Ollama.com,然后我们点击download

在这里插入图片描述

  1. 选择自己对应的系统进行安装

在这里插入图片描述

3.等待ollama软件下载完成之后找到下载好的安装包

在这里插入图片描述

4.双击运行,点击Insall,接下来就是一直等待,直到它完成

在这里插入图片描述

5.安装完成之后,按住Win+r,输入PowerShell,点击确定

在这里插入图片描述

6.然后输入命令ollama run deepseek-r1:1.5b这里很容易出错,最好复制我这个命令行然后粘贴!!!最有可能犯的错误就是没用英文符号进行输入,注意,命令行必须全是英文模式下的符号!!!不要有多余的空格!!!

在这里插入图片描述

7.等待一段时间后,出现Send a massage时就说明运行成功,然后就可以输入相应的问题,玩转你的deepseek大模型

在这里插入图片描述
在这里插入图片描述

8.安装可视化工具:进入Chatbox AI官网,点击免费下载

在这里插入图片描述

9.下载完双击安装

在这里插入图片描述

10.点击仅为我安装

在这里插入图片描述

11.安装完成之后会自动运行,选择第二个按钮(使用自己的API Key或本地模型)

在这里插入图片描述

12.选择ollama

在这里插入图片描述

13.这里会自动跳出本地部署大模型,在模型中选择deepseek-r1:14b,然后直接保存

在这里插入图片描述

14.接下来就可以直接在这里使用deepseek了

在这里插入图片描述

至此,就完成了deepseek大模型本地化+可视化的全部操作,怎么样,是不是很简单

### DeepSeek可视化功能介绍 DeepSeek提供了强大的可视化工具来帮助用户更好地理解和分析模型的行为和性能。对于`DeepSeek-coder`以及其他变体,如`DeepSeek-R1-Distill-Qwen-32B`,这些特性尤其有用。 #### 启动可视化服务 为了启动DeepSeek可视化界面,在命令行环境中输入如下指令: ```bash ollama run deepseek-r1:32b --webui ``` 这将会启动一个基于Web的服务,允许通过浏览器访问交互式的仪表板[^1]。 #### 访问可视化界面 一旦上述命令执行完毕并成功启动了服务器,默认情况下可以在本地计算机上打开网页浏览器,并导航至 `http://localhost:8090/` 来查看可视化的控制面板。如果是在远程服务器上操作,则需确保端口已正确映射或配置SSH隧道以便安全连接到该地址。 #### 主要功能模块 ##### 代码片段高亮显示 当使用像`DeepSeek-Coder`这样的特定版本时,可以利用其内置的支持自动识别编程语言并对源码进行语法着色的功能。这样不仅提高了可读性,还方便开发者快速定位感兴趣的部分。 ##### 性能指标监控 提供了一系列图表用于展示训练过程中的各项关键绩效指标(KPI),例如损失函数值的变化趋势图、准确率随时间的发展曲线等。这对于评估模型的学习效果至关重要。 ##### 数据流跟踪 能够追踪数据在整个神经网络内部流动的过程,包括但不限于各层之间的激活状态变化情况以及参数更新规律。这对调试复杂架构下的潜在问题非常有帮助。 #### Python API集成案例 除了图形界面上的操作外,还可以借助Python库进一步定制化开发流程。下面给出了一段简单的脚本作为示范如何调用API接口获取当前正在运行的任务列表: ```python from ollama.deepseek import client # 初始化客户端实例并与远端服务建立链接 api_client = client.Client('http://localhost:8090') # 获取所有活动作业的信息 active_jobs = api_client.get_active_jobs() print(active_jobs) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值