Windows本地部署DeepSeek保姆级教程,小白也能轻松实现!

img

一、下载Ollama模型

首先,我们需要下载一个叫做 Ollama 的模型,它是DeepSeek运行的基础。你可以通过以下两种方式下载:

  1. 官网下载:访问 Ollama官网 下载(如果你无法访问,可能需要科学上网)。

  2. 云盘下载:如果官网访问不便,别担心,你可以通过这个云盘链接下载安装包:

    点击下载提取码:8888

图片


二、安装Ollama模型

下载好后,你会得到一个安装包,接下来就是安装啦!

  1. 双击打开安装包,然后点击“Install”进行安装。

    imgimg

  2. 默认情况下,Ollama会安装到C盘,耐心等待安装完成。

    imgimg

安装完毕后,打开Ollama的浏览器页面(别忘了开启梯子),然后点击 DeepSeek-R1,就能开始下一步操作了!

imgimg


三、选择适合你电脑的模型

这一部是关键!选择合适的模型非常重要。模型参数越大,AI反应速度越快,但对显卡显存的要求也越高。

如果不确定显卡显存,建议用鲁大师等软件检查一下。

以下是不同模型对显卡显存的需求:

img

根据显卡显存选择一个合适的模型哦!


四、安装模型

假设你的电脑有8GB显存,那么可以选择 7b 模型。

  1. 在网页中找到 7b 模型,点击选择,然后复制页面上显示的指令。

    imgimg

  2. 按下 Win + R 键,打开命令窗口,粘贴刚才复制的指令,然后按回车运行。

    imgimg

注意:安装过程中,可能会看到进度条卡住(比如99%)。别着急!只要断开网络(拔掉网线或关闭WiFi),再重新连接,就能顺利完成安装了。 友情提示:如果下载太慢,可以尝试使用游戏加速器,找到DeepSeek加速,开启加速后重新下载即可

imgimg


五、安装ChatBox,让AI对话更有趣

模型安装完成后,我们还需要安装一个叫 ChatBox 的工具,用来与AI进行对话。

  1. 访问 ChatBox官网 下载并安装。

  2. 如果你不方便访问官网,也可以通过网盘链接下载:点击下载提取码:8888

    imgimg

  3. 安装完成后,启动ChatBox,进入应用界面。选择 “使用自己的API Key或本地模型”

    imgimg

  4. 选择 “使用Ollama API”,进入设置界面,选择刚才安装好的 7b 模型。

    imgimg

  5. 根据需要设置回复字数限制以及AI的想象力等参数。

    imgimg


六、设置AI身份角色,让对话更有个性

为了让AI对话更有趣,你可以给它设定个性化的身份角色。例如,让它扮演一个幽默的助手,或者一个严肃的专家。这样,你的对话就更有趣啦!

  1. 设置好AI角色后,点击保存,就能开始和AI聊天啦!

    imgimg


七、自由发挥,享受AI的乐趣

到此,DeepSeek的本地部署就完成了!你可以开始和AI对话啦,看看它的表现。如果觉得某个模型太卡,或者想尝试其他模型,删除当前模型并重新安装新模型也非常简单。

删除命令:

ollama rm deepseek-r1:7b

然后重新下载其他版本的模型就好了!


八、总结

跟着这个教程一步步来,你就能顺利在Windows上完成DeepSeek的本地部署。快去试试吧,享受与AI聊天的乐趣!😊

DeepSeek无疑是2025开年AI圈的一匹黑马,在一众AI大模型中,DeepSeek以低价高性能的优势脱颖而出。DeepSeek的上线实现了AI界的又一大突破,各大科技巨头都火速出手,争先抢占DeepSeek大模型的流量风口。

DeepSeek的爆火,远不止于此。它是一场属于每个人的科技革命,一次打破界限的机会,一次让普通人也能逆袭契机。

DeepSeek的优点

read-normal-img

掌握DeepSeek对于转行大模型领域的人来说是一个很大的优势,目前懂得大模型技术方面的人才很稀缺,而DeepSeek就是一个突破口。现在越来越多的人才都想往大模型方向转行,对于想要转行创业,提升自我的人来说是一个不可多得的机会。

那么应该如何学习大模型

大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。

不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!

想正式转到一些新兴的 AI 行业,不仅需要系统的学习AI大模型。同时也要跟已有的技能结合,辅助编程提效,或上手实操应用,增加自己的职场竞争力。

大模型岗位需求越来越大,但是相关岗位人才难求,薪资持续走高,AI运营薪资平均值约18457元,AI工程师薪资平均值约37336元,大模型算法薪资平均值约39607元。

read-normal-img

掌握大模型技术你还能拥有更多可能性:

• 成为一名全栈大模型工程师,包括Prompt,LangChain,LoRA等技术开发、运营、产品等方向全栈工程;

• 能够拥有模型二次训练和微调能力,带领大家完成智能对话、文生图等热门应用;

• 薪资上浮10%-20%,覆盖更多高薪岗位,这是一个高需求、高待遇的热门方向和领域;

• 更优质的项目可以为未来创新创业提供基石。

可能大家都想学习AI大模型技术,也想通过这项技能真正达到升职加薪,就业或是副业的目的,但是不知道该如何开始学习,因为网上的资料太多太杂乱了,如果不能系统的学习就相当于是白学。为了让大家少走弯路,少碰壁,这里我直接把都打包整理好,希望能够真正帮助到大家。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费在这里插入图片描述

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

read-normal-img

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈
光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

read-normal-img

👉大模型视频和PDF合集👈
观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

read-normal-img

read-normal-img

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

read-normal-img

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费在这里插入图片描述

<think>嗯,用户想要在Windows本地部署DeepSeek保姆教程。首先,我需要确认DeepSeek具体指的是什么。因为DeepSeek可能有不同的应用,比如是深度学习框架、某个特定项目,还是公司提供的工具。假设这里指的是深度求索公司的某个AI模型,比如类似ChatGPT的大语言模型。这时候,我需要考虑用户可能的需求:他们可能想在自己的Windows电脑部署一个类似ChatGPT的本地模型,用于开发或测试。 接下来,用户可能对技术不太熟悉,所以教程必须详细,每一步都要清晰。需要分步骤讲解,包括环境准备、依赖安装、模型下载、配置和运行测试。同时,用户可能遇到的问题,比如Python环境配置、GPU支持、模型文件过大等,需要提前预警并提供解决方案。 首先,安装Python环境。推荐使用Anaconda,因为它能方便地管理虚拟环境。要指导用户下载安装,并创建专用环境。然后安装PyTorch,这里需要注意CUDA版本,如果用户有NVIDIA显卡,可以加速计算,否则只能用CPU版本,但速度会慢很多。需要判断用户是否有GPU,但教程里应该涵盖两种情况。 然后,模型下载。可能涉及到Hugging Face平台,需要指导用户注册账号,安装git-lfs,下载模型文件。这里可能会有网络问题,国内用户可能需要镜像或者代理,可能需要提示。另外,模型文件通常很大,需要足够的存储空间,比如几十GB,这点要提醒用户。 接下来是代码部分,可能需要从GitHub克隆项目,安装依赖库,比如transformers、torch等。需要检查代码示例是否正确,比如使用AutoModelForCausalLM和AutoTokenizer加载模型,并编写推理代码。注意提醒用户替换模型路径,并根据显存调整batch_size和max_length。 运行部分,可能会遇到内存不足的问题,尤其是没有GPU的用户。需要建议他们使用较小的模型或者减少输入长度。此外,可能存在的错误如缺少库,需要提示安装。 最后,优化和常见问题,比如量化、使用GPU技巧,以及回答可能的疑问,比如是否需要互联网连接,模型是否能微调等。 需要确保教程用词简单,避免专业术语过多,步骤明确,适合新手。同时,检查是否有遗漏的步骤,比如git-lfs的安装,环境变量的设置,或者权限问题。可能还需要提供示例代码,确保用户能直接复制粘贴,并验证代码的正确性。 总结,整个教程需要从环境准备开始,逐步引导用户完成每个步骤,预见到常见问题并给出解决方案,确保用户即使遇到问题也能找到解决办法。同时,提醒用户注意硬件需求和下载时间,避免中途放弃。</think>以下是在 **Windows 系统本地部署 DeepSeek 模型(如 DeepSeek-R1 或类似大语言模型)的详细步骤教程,适合新手操作**: --- ### **一、环境准备** 1. **安装 Python** - 访问 [Python官网](https://www.python.org/downloads/),下载最新版 **Python 3.10+**。 - 安装时勾选 `Add Python to PATH`,确保环境变量配置正确。 - 验证安装:打开命令提示符(CMD),输入 `python --version`,显示版本号即成功。 2. **安装 CUDA 和 cuDNN(仅限NVIDIA显卡用户)** - 如果有NVIDIA显卡,安装 **CUDA Toolkit 11.8** 和对应版本的 **cuDNN**(加速GPU推理)。 - 参考NVIDIA官方教程配置:[CUDA安装指南](https://developer.nvidia.com/cuda-toolkit)。 3. **安装 Git 和 Git LFS** - 下载 [Git for Windows](https://git-scm.com/download/win),安装时全部默认选项。 - 安装后打开CMD,运行命令安装Git LFS(用于下载大模型文件): ```bash git lfs install ``` --- ### **二、获取模型文件** 1. **从Hugging Face下载模型** - 访问DeepSeek官方HF仓库(如 [deepseek-ai/deepseek-llm-7b-chat](https://huggingface.co/deepseek-ai))。 - 点击“Clone repository”复制模型地址(需注册HF账号并登录)。 - 在本地文件夹打开CMD,运行: ```bash git clone https://huggingface.co/deepseek-ai/deepseek-llm-7b-chat ``` - 等待下载完成(模型可能超过20GB,确保磁盘空间充足)。 2. **备选方案:国内镜像加速** - 如果下载慢,可使用[魔搭社区(ModelScope)](https://modelscope.cn/models?search=deepseek)或代理工具。 --- ### **三、创建Python虚拟环境** 1. **使用conda创建环境(推荐)** ```bash conda create -n deepseek python=3.10 conda activate deepseek ``` 2. **安装PyTorch** - 根据CUDA版本选择命令(无GPU则用CPU版本): ```bash # CUDA 11.8 pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 # 仅CPU pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cpu ``` 3. **安装依赖库** ```bash pip install transformers sentencepiece accelerate huggingface_hub ``` --- ### **四、编写推理代码** 1. **创建 `run.py` 文件** ```python from transformers import AutoModelForCausalLM, AutoTokenizer model_path = "D:/deepseek-llm-7b-chat" # 替换为你的模型路径 tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True) prompt = "你好,请介绍一下你自己。" inputs = tokenizer(prompt, return_tensors="pt").to(model.device) outputs = model.generate(**inputs, max_new_tokens=100) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ``` 2. **调整参数(可选)** - 显存不足时,在 `from_pretrained` 中添加参数:`load_in_4bit=True`(4位量化)或 `load_in_8bit=True`。 --- ### **五、运行模型** 1. **启动推理** ```bash python run.py ``` - 首次运行会自动加载模型,可能需要等待数分钟。 - 如果显存不足,尝试减少 `max_new_tokens` 或使用更小模型(如1.3B版本)。 --- ### **六、常见问题** 1. **CUDA内存不足** - 使用CPU运行:修改代码中的 `device_map="cpu"`。 - 启用量化(需安装 `bitsandbytes` 库): ```bash pip install bitsandbytes ``` 2. **模型加载失败** - 检查模型路径是否正确,确保所有模型文件已下载完整(尤其是`.bin`和`.json`文件)。 3. **网络问题** - 国内用户可使用镜像源加速下载: ```bash pip install -i https://pypi.tuna.tsinghua.edu.cn/simple [包名] ``` --- ### **七、进阶优化** - **使用vLLM加速推理**(需GPU): ```bash pip install vllm from vllm import LLM, SamplingParams llm = LLM(model=model_path) ``` - **Web界面交互**: 部署类似 [text-generation-webui](https://github.com/oobabooga/text-generation-webui) 的交互式界面。 --- 通过以上步骤,你可以在Windows本地成功运行DeepSeek模型。如果遇到问题,建议查阅模型官方文档或社区讨论(如Hugging Face、GitHub Issues)。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值