如何在个人电脑本地部署Deepseek大模型?Windows10 + Ollama+Deepseek+ChatBox

第一阶段:下载并安装Ollama

1,打开浏览器,进入 Ollama 官方网站

2,点击“Download”,在新页面选择“Windows”,再点击“Download for Windows”。

3,下载完成后,在文件名(OllamaSetup.exe)点击鼠标右键,选择“以管理员身份运行”。

4,点击“Install”开始安装。安装完成后,软件没有任何提示,但在启动菜单中可以看到。

第二阶段:安装Deepseek-R1大模型

5,在“Windows开始”图标上按右键,在弹出菜单上点击“Windows PowerShell(管理员)”或“命令提示符(管理员)”(因WIN10版本不同而不同,我用的企业版是PS)。在打开的窗口输入命令  ollama run deepseek-r1:1.5b

6,安装完成后,会显示“success”。随后出现对话提示“>>> Send a message (/? For help”
这个时候就可以输出你的问题,它会给你相应的答案。如下图所示。

7,Deepseek-r1有多个版本,1.5b是最小的版本,大家可以根据自己的硬件配置选择更大能力更强的模型。如下图所示。

第三阶段:安装客户端GUI界面(可以不用)

8,打开浏览器,进入ChatBox官网  https://chatboxai.app

9,点击“免费下载(for Windows)”,下载完成后,以管理员身份运行。

10,在第一个界面,随便选,最终还是要看第二个界面的设置。如下图

11,“模型提供方”请选择“OLLAMA API”,“模型”请选择“deepseek-r1:1.5”(根据你安装和运行的模型来选择),“API域名”那里,点“重置”就会出现本地域名,选用本地模型。其他的可以不改。最后点“保存”
12,到这里你就可以开始和Deepseek-r1大模型对话了。

推荐文章:

《工业计算机硬件技术支持手册》简介

如何让mSATA和mini-PCIe co-lay_msata接口固态硬盘能安装到mpcie1接口吗?-优快云博客

如何自定义网卡指示灯?_rtl8125bg各引脚定义-优快云博客

HDMI转DVI或DVI转HDMI电路设计实例_hdmi连接dvi接线图-优快云博客

如何用GHOST还原硬盘或分区?GHOST操作指南(二)_ghost界面-优快云博客

### 使用 Ollama DeepseekR1.5B 和 Chatbox 进行本地模型训练 #### 准备工作 为了在本地环境中利用已经部署好的 OllamaDeepseekR1.5B 和 Chatbox 来进行模型训练,首先要确认当前环境满足所有必要的依赖项和配置。这包括但不限于 Python 的适当版本以及相关库的安装。 #### 配置环境变量 确保所有的路径已经被正确设置到系统的环境变量中以便于命令行工具能够识别并执行相应的操作。对于 Windows 用户来说,可以通过编辑 `PATH` 变量来实现这一点;而对于 Linux 或 macOS 用户,则可以在终端里通过 `.bashrc`, `.zshrc` 文件添加临时或永久性的更改[^2]。 #### 安装额外组件 除了基本框架外,在某些情况下还需要安装一些特定的数据处理包或者其他辅助程序以支持更复杂的任务需求。例如 TensorFlow, PyTorch 等深度学习平台可能是必需的选择之一取决于具体的项目要求[^3]. #### 数据准备与预处理 收集足够的高质量数据集是成功的关键因素之一。这些数据应该被清洗干净去除噪声,并按照所选算法的要求格式化保存下来。通常会涉及到文本文件(.txt), CSV 表格(.csv)等形式。此外还可以考虑使用现成公开可用的大规模语料库作为补充资源[^1]. #### 修改配置文件 进入项目的根目录找到对应的配置文件(通常是 JSON 或 YAML 类型),根据实际情况调整超参数设定比如批次大小(batch size),迭代次数(epoch number)等重要选项。特别注意要指定好输入输出路径让系统知道在哪里读取原始资料又该把最终成果存放到哪里去. #### 启动训练过程 当一切就绪之后就可以启动实际的训练流程了。一般而言这是通过运行一段简单的Python脚本来完成的,它负责加载之前定义过的各项参数并将它们传递给底层引擎从而触发整个计算链条的工作。下面给出了一段示范性质的代码片段: ```python import os from transformers import Trainer, TrainingArguments, AutoModelForCausalLM, AutoTokenizer model_name = "path_to_your_model" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name) training_args = TrainingArguments( output_dir="./results", num_train_epochs=3, per_device_train_batch_size=8, save_steps=10_000, save_total_limit=2, ) trainer = Trainer( model=model, args=training_args, train_dataset=train_dataset, tokenizer=tokenizer, ) trainer.train() ``` 这段代码展示了如何创建一个基于 Hugging Face Transformers 库的训练器实例来进行微调作业。当然具体细节可能会因为个人偏好和技术栈的不同而有所变化. #### 监控进度与评估效果 在整个过程中应当定期查看日志记录了解最新进展并且及时作出相应调整优化性能指标。完成后记得对新得到的结果进行全面测试验证其有效性再决定是否投入使用生产环节当中去.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值