简介
文章介绍了开源大模型DeepSeek-V3.2的多种量化版本,解决原始模型690GB过大难以部署的问题。推荐了三种量化方案:AWQ 4bit版本(362GB)适合NVIDIA显卡;Qwen3-8B蒸馏版本(约16GB)可在双4090上流畅运行;MLX 4bit版本(378GB)专为苹果M系列设计。提供了各版本的下载链接、国内镜像及详细启动脚本,帮助不同硬件条件的用户实现本地部署。
DeepSeek-V3.2 虽好,无奈太庞大了,完整模型文件 690 GB

https://huggingface.co/unsloth/DeepSeek-V3.2
DeepSeek-V3.2 原版 国内镜像: https://modelscope.cn/models/unsloth/DeepSeek-V3.2
https://modelscope.cn/models/deepseek-ai/DeepSeek-V3.2-Speciale
时隔多天,各种量化版本的 DeepSeek-V3.2 陆续来了
有点奇怪,这次 [[2025-04-01-大模型量化界翘楚:unsloth]] 有点迟到
unsloth 出手,我估计 1bit 版模型能干到 100GB
先推荐几个靠谱的 DeepSeek-V3.2 吧
1, DeepSeek-V3.2-AWQ
优点是 Safetensors 格式,vLLM 可以直接启动模型
AWQ 4bit 量化,模型文件 362GB

https://huggingface.co/QuantTrio/DeepSeek-V3.2-AWQ
国内镜像:https://modelscope.cn/models/QuantTrio/DeepSeek-V3.2-AWQ/files 当然也有 Speciale 的镜像:https://modelscope.cn/models/QuantTrio/DeepSeek-V3.2-Speciale-AWQ
安装及启动脚本
export VLLM_USE_DEEP_GEMM=0 # ATM, this line is a "must" for Hopper devicesexport TORCH_ALLOW_TF32_CUBLAS_OVERRIDE=1export VLLM_USE_FLASHINFER_MOE_FP16=1export VLLM_USE_FLASHINFER_SAMPLER=0export OMP_NUM_THREADS=4llm serve \ __YOUR_PATH__/QuantTrio/DeepSeek-V3.2-Speciale-AWQ \ --served-model-name MY_MODEL_NAME \ --enable-auto-tool-choice \ --tool-call-parser deepseek_v31 \ --reasoning-parser deepseek_v3 \ --swap-space 16 \ --max-num-seqs 32 \ --max-model-len $CONTEXT_LENGTH \ --gpu-memory-utilization 0.9 \ --tensor-parallel-size 8 \ --enable-expert-parallel \ # optional --speculative-config '{"model": "__YOUR_PATH__/QuantTrio/DeepSeek-V3.2-Speciale-AWQ", "num_speculative_tokens": 1}' \ # optional, 50%+- throughput increase is observed --trust-remote-code \ --host 0.0.0.0 \ --port 8000
2, Qwen3-8B-DeepSeek-v3.2-Speciale-Distill
这是一个奇妙的组合,用 Qwen3-8B 蒸馏的 DeepSeek-v3.2-Speciale

https://huggingface.co/TeichAI/Qwen3-8B-DeepSeek-v3.2-Speciale-Distill/tree/main
3, mlx-community/DeepSeek-V3.2-4bit
土豪专享
苹果 M 系列用户可以试试,4bit 量化,模型文件 378GB,非土豪直接绕行

如何学习AI大模型?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习和面试资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】


第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

2187

被折叠的 条评论
为什么被折叠?



