Deepseek尝鲜,笔记本搭建deepseek全过程

背景:

  • 我从2024年开始玩AI,也去考了人工智能训练师的高级工的证书,正式踏进了AI领域。也用了不少了AI工具,我常用的有kimi chat,豆包,即梦AI,欧亿AI7.0等等,但这些都是别人包装好的大模型,是联网使用的,国内AI技术不断精进,近期deepseek在AI圈得到了很高的评价。AI看起来是一个高大上的东西,什么神经网络,什么机器学习,需要大型的服务器来做,自己是接触不到的,经过一番了解,发现deepseek的入门版本,笔记本都可以搭建,也萌生了想要自己搭建一个本地AI服务的想法,以下就是我的搭建过程和使用感受。

目录:
1.笔记本电脑软硬件配置确认。
2.安装deepseek。
3.试用与感受。

1.笔记本电脑软硬件配置确认。
首先要确认一下自己的笔记本电脑是否合适作为deepseek搭建的主机,经过一番了解需要确认以下几点。
首先是硬件配置,如下列了deepseek最低配置和推荐配置。
最低配置:CPU(支持 AVX2 指令集)+ 16GB 内存 + 30GB 存储。
推荐配置:NVIDIA GPU(RTX 3090 或更高)+ 32GB 内存 + 50GB 存储。

因为笔记本没有独显,只有CPU,看看最低配置是否符合,首先是CPU,CPU是特别要求有AVX2指令集,这个是deepseek的硬性要求,那需要怎么确认自己的笔记本是否支持呢,kimi告诉我可以在cmd命令行里面看,我尝试过不行,需要借助一个工具CPU-Z来查看详细的CPU信息,CPU-Z的下载地址https://www.cpuid.com/,下载完成后安装就行,普通软件来的,安装好之后桌面会有如下图标,双击打开
在这里插入图片描述

打开后界面如下
在这里插入图片描述

默认打开的是处理器面板
我们需要关心指令集,可以看到,我的处理器是带了AVX2指令集的,第一个条件满足。
来看看第二个条件,内存16G,这个软件同样可以查内存,选择内存那栏就行。
在这里插入图片描述

可以看到,我的笔记本是DDR4并且是16G的,刚好符合下限。第二个条件也满足。
还有第三个条件,说存储也就是硬盘,并且是C盘有30G,有空的30G以上就行,注意不是整个硬盘有30G,是空闲可用的才行。为什么是C盘呢,因为运行deepseek的Ollama安装路径默认为 C 盘,且不支持更改路径.

也没有问题。
到这里硬件配置算是检查完成了,现在都2025年了,稍微好一点的笔记本应该都问题不大,所以,deepseek最低要求还是不算太高的,大家都玩得起。

Deepseek也对系统有要求,DeepSeek 支持 Windows 10 及更高版本。我们之间查看系统信息就行,我的是win10专业版,也刚刚踩线。
在这里插入图片描述

到这里,前期检查工作完成,确认可以笔记本部署deepseek,可以放心大胆去下一步了。

2.安装deepseek
接下来开始安装deepseek,我们需要先安装一个Ollama
Ollama 是运行 DeepSeek 模型的基础工具,以下是安装步骤:

  1. 访问 Ollama 官网:https://ollama.com/ 。
  2. 点击 “Download” 按钮,选择 Windows 系统对应的 .exe 安装包 。
  3. 下载完成后,双击安装包并按照提示完成安装 。注意安装路径默认为 C 盘,且不支持更改路径 。
  4. 安装完成后,在命令提示符中输入以下命令验证安装是否成功: ollama --version 如果输出版本号(如 ollama version is 0.5.6),则说明安装成功
    在这里插入图片描述

接下来是安装deepseek,deepseek有很多版本,
入门级:1.5B 版本,适合初步测试 。
中端:7B 或 8B 版本,适合大多数消费级 GPU 。
高性能:14B、32B 或 70B 版本,适合高端 GPU 。
因为笔记本配置是踩线,我们来安装入门版本,体验一下,笔记本配置好的,或者台式带比较好的显卡,可以选择更高的版本。

在命令行里面输入
ollama run deepseek-r1:1.5b
回车等待即可,安装好了会提示一个success,代表已经安装好了,这个框是可以直接对话的。
在这里插入图片描述

到这里就是安装完成了,很简单吧,接下来就可以和AI直接对话了。

3试用与感受。
你如果用英文提问,他是英文回答的,如果不想看英文就直接中文问题,如果还是英文,可以要求deepseek用中文来回答都可以
还有,你如果关闭了命令框后,可以用
ollama run deepseek-r1:1.5b
重新打开对话框,如下图。
在这里插入图片描述

我们再试试智能体,在考人工智能训练师的时候,了解到智能体可以把AI作为我们的工具,来完成特定的功能,AI才算是用起来了。
来做智能体。
发送了智能体的定义

你是AI助理智能体,是我的一个分身,帮我回答一些简单的售前售后问题
在这里插入图片描述

看起来还不错的样子,就是没有训练,回答的不太好,还需要补充更多的信息,把本地的deepseek教会,才能成为自己的AI助理,目前还没有深入使用,后续再分享。

### 部署 DeepSeek环境准备 为了在本地笔记本电脑上成功部署 DeepSeek,需确认硬件条件满足最低需求。对于像 DeepSeek 这样的大型模型,建议至少配备有 NVIDIA GPU 和相应的 CUDA 版本支持,因为这能显著加速模型推理过程[^1]。 ### 安装依赖库 安装必要的 Python 库是启动项目的基础工作之一。通过 pip 或 conda 来创建虚拟环境并安装所需包是最常见的做法。具体来说: ```bash conda create -n deepseek_env python=3.8 conda activate deepseek_env pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu113 pip install transformers datasets sentencepiece ``` 这些命令会设置好 PyTorch 及其相关组件以及 Hugging Face 提供的 `transformers` 库,它们都是运行 DeepSeek 所必需的软件包[^2]。 ### 获取预训练模型 访问官方仓库下载预先训练好的 DeepSeek 模型权重文件。通常情况下,GitHub Releases 页面或是专门提供的链接可以找到对应的资源。确保按照说明保存到指定路径下以便后续加载使用。 ### 启动服务端程序 完成上述准备工作之后,就可以着手编写或调整用于调用 DeepSeek API 的脚本了。下面是一个简单的例子来展示如何初始化服务器实例: ```python from fastapi import FastAPI, Request import uvicorn from transformers import AutoModelForSeq2SeqLM, AutoTokenizer app = FastAPI() model_name_or_path = "path_to_your_model" tokenizer = AutoTokenizer.from_pretrained(model_name_or_path) model = AutoModelForSeq2SeqLM.from_pretrained(model_name_or_path) @app.post("/predict/") async def predict(request: Request): data = await request.json() inputs = tokenizer(data['text'], return_tensors="pt", truncation=True, padding=True) outputs = model.generate(**inputs) result = tokenizer.decode(outputs[0], skip_special_tokens=True) return {"prediction": result} if __name__ == "__main__": uvicorn.run(app, host='0.0.0.0', port=8000) ``` 这段代码片段展示了基于 FastAPI 构建的一个简易 web 服务接口,它接收 JSON 格式的输入请求并将处理后的预测结果返回给客户端应用。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值