零基础必看!手把手教你本地安装 DeepSeek(D 盘版)
你是否想拥有一个属于自己的本地 AI 助手,随时随地畅享智能交互,无需担忧网络和数据隐私问题?现在,零基础的你也能轻松搞定 DeepSeek 的本地安装啦!跟着以下步骤,开启你的 AI 探索之旅吧。
一、为什么选择本地部署 AI 模型?
- 无需网络随时使用:摆脱网络限制,无论何时何地,只要打开电脑,就能立即使用 AI 助手,再也不用担心网络延迟、中断影响使用体验。
- 数据隐私更安全:本地部署意味着你的所有交互数据都保存在自己的电脑上,无需上传至云端,最大程度保护个人隐私与敏感信息。
- 自定义扩展更方便:可以根据个人需求,灵活调整模型参数、添加个性化插件,打造独一无二的 AI 应用场景。
二、安装前准备
- 硬件要求:
- 显卡:建议配备 NVIDIA 10 系及以上显卡,对于 DeepSeek 7B 版本,若使用量化版模型,至少需 10GB 显存;若运行完整版模型,则建议 16GB 以上显存。若无 NVIDIA 显卡或使用其他显卡,可能会遇到兼容性问题,后续使用效果无法保证。
- 内存:电脑内存至少 16GB,以确保模型运行流畅,避免因内存不足导致程序崩溃或运行缓慢。
- 硬盘:在 D 盘预留至少 30GB 空间,用于存放模型文件、依赖库及项目相关资料,确保有足够的存储空间来容纳 DeepSeek 庞大的模型数据。
- 软件环境:
- 操作系统:推荐使用 Windows 10 及以上版本,确保系统稳定性与兼容性,部分老旧版本 Windows 可能缺少必要的系统组件支持。
- Python 安装:下载安装 Python 3.10 +(务必勾选 Add to PATH 选项),相较于旧版本,Python 3.10 在库的支持、性能优化上表现更佳,能更好地适配 DeepSeek 运行所需的各类依赖库。
- 梯子准备(可选但建议):由于部分依赖包下载源在国外,下载依赖时可能需要梯子来确保网络连接稳定、顺畅,避免因网络问题导致下载失败或下载速度过慢。
三、极简安装四步法
STEP 1:创建专属空间
在 D 盘根目录下新建文件夹,推荐命名为“DeepSeek_Project”,后续所有与 DeepSeek 相关的文件,包括模型、代码、依赖库等都统一放置在此文件夹内,便于管理,避免文件混乱,方便查找与维护。
STEP 2:一键安装依赖
按下 Win + R 组合键打开“运行”窗口,输入“cmd”并回车,打开命令提示符(CMD)窗口,在 CMD 中输入以下命令(复制粘贴即可):
pip install torch==1.12.0 transformers==4.28.1 gradio --user
此命令将自动安装 DeepSeek 运行所需的核心依赖库,如 PyTorch、Transformers 和 Gradio 等,“–user”参数确保依赖库安装在当前用户目录下,避免权限问题。
STEP 3:模型下载技巧
目前,DeepSeek 模型可前往 Ollama 官网等官方指定平台进行下载。找到 DeepSeek 7B 版本的模型文件,下载完成后,将整个模型文件夹直接拖放到之前创建的“DeepSeek_Project”项目目录下,确保模型路径正确无误,无中文或特殊符号,以免后续加载模型时报错。
STEP 4:启动可视化界面
在“DeepSeek_Project”文件夹内,新建一个名为“start.py”的 Python 文件,使用文本编辑器(如记事本、VS Code 等)打开,粘贴以下代码:
from transformers import AutoModelForCausalLM, AutoTokenizer
import gradio as gr
model = AutoModelForCausalLM.from_pretrained("D:/DeepSeek_Project/model", trust_remote_code=True)
tokenizer = AutoTokenizer.from_pretrained("D:/DeepSeek_Project/model")
def chat(text):
try:
inputs = tokenizer(text, return_tensors="pt")
outputs = model.generate(**inputs)
return tokenizer.decode(outputs[0])
except Exception as e:
return f"An error occurred: {str(e)}"
gr.Interface(fn=chat, inputs="textbox", outputs="text").launch()
上述代码实现了从本地加载 DeepSeek 模型,并通过 Gradio 创建一个简单的可视化聊天界面。注意,from_pretrained
中的模型路径需与实际存放模型的文件夹路径一致,若模型有特殊加载要求(如量化加载等),需根据官方文档调整参数。保存代码后,双击运行“start.py”文件,即可弹出聊天界面,开启与 DeepSeek 的智能交互。
四、避坑指南
- 报错红字怎么办?
- 检查模型路径:仔细核对模型加载路径,确保路径中不包含中文、空格或其他特殊符号,否则 Python 可能无法正确识别路径,导致模型加载失败。
- 基础库更新:若遇到依赖相关报错,在 CMD 中运行
pip install --upgrade numpy
等命令,更新可能存在版本冲突或缺失的基础库,以确保程序运行环境稳定。
- 内存不足?
如果电脑配置的显卡支持 CUDA 且已安装相关驱动,在“start.py”代码开头添加以下两行代码,可有效减少显存占用:
import torch
model = model.half().cuda() if torch.cuda.is_available() else model
请注意,若没有符合要求的显卡硬件,强行添加这两行代码可能导致程序运行出错,需谨慎操作。
五、进阶小技巧
- 外网访问:若你希望在同一局域网内的其他设备,甚至通过外网访问本地部署的 DeepSeek 聊天界面,只需在启动 Gradio 界面的代码中,将
launch()
修改为launch(share=True)
,运行后会生成一个外网可访问的链接,方便分享给他人使用,但需注意网络安全与隐私保护。 - 屏蔽警告信息:在“start.py”代码开头添加
import warnings; warnings.filterwarnings('ignore')
,可屏蔽运行过程中可能出现的各类警告信息,使控制台输出更加简洁,便于查看关键信息,但在调试阶段不建议使用,以免错过重要的报错提示。
六、常见 QA
- 安装时报错 ModuleNotFound?
在 CMD 执行pip install 缺失的模块名
即可,此问题通常是由于缺少某些依赖模块,按提示安装缺失模块后重新运行程序即可。 - 响应速度慢?
首次启动 DeepSeek 并加载模型时,由于需要初始化大量参数,可能需 5 - 10 分钟,请耐心等待,后续对话响应速度会明显加快,因为模型已完成初始化,可快速处理输入文本。
恭喜你,现在你的电脑已经拥有一个智能 AI 助手啦!试着问它:“用 Python 写个猜数字游戏”,开启奇妙之旅吧。安装过程中若遇到任何问题,欢迎随时留言,看到必回!