官方文档:deepseek-ai /awesome-deepseek-coder & CPU运行 6.7b / 14b / 33b 测试记录 (****)

deepseek-ai /awesome-deepseek-coder  awesome-deepseek-coder/README_CN.md at main · deepseek-ai/awesome-deepseek-coder · GitHub 

Deepseek-code 才是代码专用的。Deepseek-R1虽好,但编程请慎用!  Deepseek-R1虽好,但编程请慎用!_哔哩哔哩_bilibili 

*** DeepSeek R1 推理模型 一键包答疑  DeepSeek R1 推理模型 一键包答疑2 完全本地部署 保姆级教程 断网运行 无惧隐私威胁 大语言模型推理时调参 3050显卡4G显存本地32B模型跑通_哔哩哔哩_bilibili   

DeepSeek R1 推理模型 完全本地部署 保姆级教程 断网运行 无惧隐私威胁 大语言模型推理时调参 CPU GPU 混合推理 32B 轻松本地部署_哔哩哔哩_bilibili 此视频:

  • 提到使用虚拟机:速度会慢?很慢吧?( 有开源专们用于加速模型的docker image?)
  • 是 CPU 版,没有 GPU?
    播放时间 04:35 ?
    06:12 处又说本机有 4GB  的 GPU?
    12:12 处又说电脑采用 纯 cpu 推理?
    ollama : 支持 CPU,或 GPU版部署?是根据 shell 脚本来判断到底安装哪个版本?
  • 播放时间 15:03 :1.5B 在虚拟机上的运行速度?参数 B 越小,准确率越低:见官网。

----------------------------------------------------------

说明:

本地部署 的 AI 代码助手:

  • tabby:目前只开放出代码补全?
  • deepseek-r1 :MIT ,免费,开源。国人制作,中文支持好?
  • CodeGeeX4 :免费,不开源 ?
  • codellama ,qwen2.5-coder .....免费,不开源

----------------------------------------------------------

关联参考:

DeepSeek-R1本地运行指南  https://blog.youkuaiyun.com/ken2232/article/details/145393458 

官方文档:deepseek-ai /awesome-deepseek-coder   官方文档:deepseek-ai /awesome-deepseek-coder-优快云博客 

CodeGeeX4: 全能的开源多语言代码生成模型,可本地部署 (*****)  https://blog.youkuaiyun.com/ken2232/article/details/145378748 

=================================

deepseek-ai /awesome-deepseek-coder 

  awesome-deepseek-coder/README_CN.md at main · deepseek-ai/awesome-deepseek-coder · GitHub 

📚 English | [中文]

awesome-deepseek-coder

与 DeepSeek Coder 相关的资源&开源项目的精选列表
 

快速体验 DeepSeek Coder

👉直达官网内测页面 coder.deepseek.com
 

deepseek 官方资源

已发布的模型

所有模型均可在 Hugging Face 官方主页(@deepseek_ai)进行下载
🔗huggingface.co/deepseek-ai

Model SizeBaseInstruct
1.3Bdeepseek-coder-1.3b-basedeepseek-coder-1.3b-instruct
5.7Bdeepseek-coder-5.7bmqa-basedeepseek-coder-5.7bmqa-instruct(coming soon)
6.7Bdeepseek-coder-6.7B-basedeepseek-coder-6.7B-instruct
33Bdeepseek-coder-33B-basedeepseek-coder-33B-instruct

------

  > https://modelscope.cn/models/limoncc/deepseek-coder-6.7b-instruct-gguf  

  • huggingface.co 被墙,直接到 魔搭社区  下载?
  • Instruct 模型‌:是一种通过监督微调或强化学习等方式训练而成的模型。选择 base 模型,一般还需要自己调矫,麻烦,除非必要。
  • -?B:一般参数越大越好。但是,需要的内存也会增多,运算量增增加,所以需要根据自己电脑的性能,来选择参数 B 值。如果是采用 GPU 显存的话,比校贵,或采用算力租赁。
  • 本地部署的原因,代码保密的需要。否则,如果是开源软件,则直接采用官网的好了,好像 B参数是大于 600B ?
    如果将这种版本私有化部署,那么,一般公司恐怕是用不起的,某视频说,采用好多块 GPU 卡,好像1天要 1000RMB 左右的算力租赁?准确率高,但烧钱。

------

API 开放平台

轻松接入,让DeepSeek成为你高效的AI助手
🔗platform.deepseek.com

社区生态资源

基于 DeepSeek Coder 训练的模型

Model SizeModels
1.3BOpenCodeInterpreter-DS-1.3B
6.7BMagicoder-DS-6.7B
Magicoder-S-DS-6.7B
OpenCodeInterpreter-DS-6.7B
openbuddy-deepseekcoder-6b-v16.1-32k
33BWizardCoder-33B-V1.1
CodeFuse-DeepSeek-33B
OpenCodeInterpreter-DS-33B
openbuddy-deepseekcoder-33b-v16.1-32k

量化模型

  • TheBloke - TheBloke 为 Deepseek Coder 1B/7B/33B 模型开发 AWQ/GGUF/GPTQ 格式模型文件
Model SizeBaseInstruct
1.3Bdeepseek-coder-1.3b-base-AWQ
deepseek-coder-1.3b-base-GGUF
deepseek-coder-1.3b-base-GPTQ
deepseek-coder-1.3b-instruct-AWQ
deepseek-coder-1.3b-instruct-GGUF
deepseek-coder-1.3b-instruct-GPTQ
5.7Bdeepseek-coder-5.7bmqa-base-AWQ
deepseek-coder-5.7bmqa-base-GGUF
deepseek-coder-5.7bmqa-base-GPTQ
deepseek-coder-5.7bmqa-instruct-AWQ(coming soon)
deepseek-coder-5.7bmqa-instruct-GGUF(coming soon)
deepseek-coder-5.7bmqa-instruct-GPTQ(coming soon)
6.7Bdeepseek-coder-6.7B-base-AWQ
deepseek-coder-6.7B-base-GGUF
deepseek-coder-6.7B-base-GPTQ
deepseek-coder-6.7B-instruct-AWQ
deepseek-coder-6.7B-instruct-GGUF
deepseek-coder-6.7B-instruct-GPTQ
33Bdeepseek-coder-33B-base-AWQ
deepseek-coder-33B-base-GGUF
deepseek-coder-33B-base-GPTQ
deepseek-coder-33B-instruct-AWQ
deepseek-coder-33B-instruct-GGUF
deepseek-coder-33B-instruct-GPTQ

------------

  魔搭社区 

  • 不量化版本,准确率最高。但需要的内存最多,硬件成本贵。
  • ollaman GGUF 默认采用 Q4 量化?

Download a file (not the whole branch) from below:

FilenameQuant typeFile SizeDescription
DeepSeek-Coder-V2-Lite-Instruct-Q8_0_L.ggufQ8_0_L17.09GBExperimental, uses f16 for embed and output weights. Please provide any feedback of differences. Extremely high quality, generally unneeded but max available quant.
DeepSeek-Coder-V2-Lite-Instruct-Q8_0.ggufQ8_016.70GBExtremely high quality, generally unneeded but max available quant.
DeepSeek-Coder-V2-Lite-Instruct-Q6_K_L.ggufQ6_K_L14.56GBExperimental, uses f16 for embed and output weights. Please provide any feedback of differences. Very high quality, near perfect, recommended.
DeepSeek-Coder-V2-Lite-Instruct-Q6_K.ggufQ6_K14.06GBVery high quality, near perfect, recommended.
DeepSeek-Coder-V2-Lite-Instruct-Q5_K_L.ggufQ5_K_L12.37GBExperimental, uses f16 for embed and output weights. Please provide any feedback of differences. High quality, recommended.
DeepSeek-Coder-V2-Lite-Instruct-Q5_K_M.ggufQ5_K_M11.85GBHigh quality, recommended.
DeepSeek-Coder-V2-Lite-Instruct-Q5_K_S.ggufQ5_K_S11.14GBHigh quality, recommended.
DeepSeek-Coder-V2-Lite-Instruct-Q4_K_L.ggufQ4_K_L10.91GBExperimental, uses f16 for embed and output weights. Please provide any feedback of differences. Good quality, uses about 4.83 bits per weight, recommended.
DeepSeek-Coder-V2-Lite-Instruct-Q4_K_M.ggufQ4_K_M10.36GBGood quality, uses about 4.83 bits per weight, recommended.
DeepSeek-Coder-V2-Lite-Instruct-Q4_K_S.ggufQ4_K_S9.53GBSlightly lower quality with more space savings, recommended.
DeepSeek-Coder-V2-Lite-Instruct-IQ4_XS.ggufIQ4_XS8.57GBDecent quality, smaller than Q4_K_S with similar performance, recommended.
DeepSeek-Coder-V2-Lite-Instruct-Q3_K_L.ggufQ3_K_L8.45GBLower quality but usable, good for low RAM availability.
DeepSeek-Coder-V2-Lite-Instruct-Q3_K_M.ggufQ3_K_M8.12GBEven lower quality.
DeepSeek-Coder-V2-Lite-Instruct-IQ3_M.ggufIQ3_M7.55GBMedium-low quality, new method with decent performance comparable to Q3_K_M.
DeepSeek-Coder-V2-Lite-Instruct-Q3_K_S.ggufQ3_K_S7.48GBLow quality, not recommended.
DeepSeek-Coder-V2-Lite-Instruct-IQ3_XS.ggufIQ3_XS7.12GBLower quality, new method with decent performance, slightly better than Q3_K_S.
DeepSeek-Coder-V2-Lite-Instruct-IQ3_XXS.ggufIQ3_XXS6.96GBLower quality, new method with decent performance, comparable to Q3 quants.
DeepSeek-Coder-V2-Lite-Instruct-Q2_K.ggufQ2_K6.43GBVery low quality but surprisingly usable.
DeepSeek-Coder-V2-Lite-Instruct-IQ2_M.ggufIQ2_M6.32GBVery low quality, uses SOTA techniques to also be surprisingly usable.
DeepSeek-Coder-V2-Lite-Instruct-IQ2_S.ggufIQ2_S6.00GBVery low quality, uses SOTA techniques to be usable.
DeepSeek-Coder-V2-Lite-Instruct-IQ2_XS.ggufIQ2_XS5.96GBVery low quality, uses SOTA techniques to be usable.

------------

Copilot

👉 refact
开源人工智能编码助手,具有极快的代码完成速度、强大的代码改进工具和聊天功能。它支持 deepseek-coder/1.3b/base, deepseek-coder/5.7b/mqa-base, deepseek-coder/6.7b/instruct, deepseek-coder/33b/instruct.

👉 Tabby
开源、自托管的 AI 编码助手,是 GitHub Copilot 的有力替代品。 可以在 Tabby 上深入探索 DeepSeek Coder 强大的代码补全功能✨ (link)
其最新排行榜显示 deepseek-coder-6.7B 在代码完成方面表现最佳 (Coding LLMs Leaderboard).

👉 🧙‍AutoDev
开源的AI辅助编程工具,可以与Jetbrains系列IDE无缝集成。 它提供 Deepseek Coder 6.7B 微调数据工具Unit Eval, 与 AutoDev 提示相关的 datasetsfinetuned model, 以及 API server example

APIs

------

​refact​

GitHub - smallcloudai/refact: WebUI for Fine-Tuning and Self-hosting of Open-Source Large Language Models for Coding

This repo consists Refact WebUI for fine-tuning and self-hosting of code models, that you can later use inside Refact plugins for code completion and chat.

Supported models

ModelCompletionChatFine-tuningDeprecated
Refact/1.6B++
starcoder2/3b/base++
starcoder2/7b/base++
starcoder2/15b/base++
deepseek-coder/1.3b/base++
deepseek-coder/5.7b/mqa-base++
magicoder/6.7b++
mistral/7b/instruct-v0.1++
mixtral/8x7b/instruct-v0.1+
deepseek-coder/6.7b/instruct++
deepseek-coder/33b/instruct+
stable/3b/code+
llama3/8b/instruct++
llama3.1/8b/instruct++
llama3.2/1b/instruct++
llama3.2/3b/instruct++
qwen2.5/coder/0.5b/base++
qwen2.5/coder/1.5b/base++
qwen2.5/coder/3b/base++
qwen2.5/coder/7b/base++
qwen2.5/coder/14b/base++
qwen2.5/coder/32b/base++
qwen2.5/coder/1.5b/instruct++
qwen2.5/coder/3b/instruct++
qwen2.5/coder/7b/instruct++
qwen2.5/coder/14b/instruct++
qwen2.5/coder/32b/instruct++

FAQ

Q: Can I run a model on CPU?

A: it doesn't run on CPU yet, but it's certainly possible to implement this. (以后可能有 cpu 版?什么时候?)

说明:

  • 需要足够快的速度时,则要使用 GPU 版。GPU 太贵,而且硬件更新快,自己购买说不定很快就砸在手里了(就是 AI 模型更新了,结果现有的 GPU 不支持了;或者需要运行某些其他的 AI 大模型,结果现有的 GPU 并不支持?)?个人使用,似乎还是直接购买云 GPU 划算?
  • 除非需要特别保密的代码。否则,直接使用官方免费的,在 VSCode 中就有许多免费的 AI 代码插件。
  • 自己部署,硬件成本高。非 GPU 电脑,可能生成的速度太慢,只能在某些场景里使用;并且,支持 CPU 版本的 AI 大模型,似乎并不多见?
  • 当保密代码、只是想做一些验证,或注释时,慢一点也是没有关系的,因此,CPU版似乎也是有价值的?毕竟不是人人都私有 GPU,购买云 GPU 有时也麻烦?
    在多人同时使用 CPU 版时,可能运行速度就不可接受了?

============

  • awesome-deepseek-coder  : 最小 1.3B。5.7B在 8GB内存的电脑上,勉强可运行?官方目前的 Instruct版还在等待中。。
  • DeepSeek-Coder-V2 : 最小 16B

deepseek-ai / DeepSeek-Coder-V2

  GitHub - deepseek-ai/DeepSeek-Coder-V2: DeepSeek-Coder-V2: Breaking the Barrier of Closed-Source Models in Code Intelligence 

2. Model Downloads

We release the DeepSeek-Coder-V2 with 16B and 236B parameters based on the DeepSeekMoE framework, which has actived parameters of only 2.4B and 21B , including base and instruct models, to the public.

Model#Total Params#Active ParamsContext LengthDownload
DeepSeek-Coder-V2-Lite-Base16B2.4B128k🤗 HuggingFace
DeepSeek-Coder-V2-Lite-Instruct16B2.4B128k🤗 HuggingFace
DeepSeek-Coder-V2-Base236B21B128k🤗 HuggingFace
DeepSeek-Coder-V2-Instruct236B21B128k🤗 HuggingFace

deepseek-ai / awesome-deepseek-coder  awesome-deepseek-coder/README_CN.md at main · deepseek-ai/awesome-deepseek-coder · GitHub 

已发布的模型

所有模型均可在 Hugging Face 官方主页(@deepseek_ai)进行下载
🔗huggingface.co/deepseek-ai

Model SizeBaseInstruct
1.3Bdeepseek-coder-1.3b-basedeepseek-coder-1.3b-instruct
5.7Bdeepseek-coder-5.7bmqa-basedeepseek-coder-5.7bmqa-instruct(coming soon)
6.7Bdeepseek-coder-6.7B-basedeepseek-coder-6.7B-instruct
33Bdeepseek-coder-33B-basedeepseek-coder-33B-instruct

田ji赛马:一个模型,同时给出多种不同的量化版本。

  美方刚要封杀DeepSeek,一个更大噩耗传来,白宫:这下真的完了!_哔哩哔哩_bilibili 

07:50  一条视频搞清楚DeepSeek为什么这么火?【含本地部署】_哔哩哔哩_bilibili 

ollama cpu 运行 deepseek-coder:6.7b / 14b / 33b 测试记录 

  https://blog.youkuaiyun.com/ken2232/article/details/145410479 

# 测试环境

  • 8GB内存,双核,云 VPS
  • Ubuntu 22.04 x64  服务器版,没有安装桌面,及其他非测试软件vps。

# 结果:

  • 6.7b:可运行,但速度慢。
  • 14b:可运行,10分钟才蹦出一个单词。终止了测试。
  • 33b:无法安装,Error: model requires more system memory (17.6 GiB) than is available (11.7 GiB)  << 也许将磁盘的虚拟内存调大,就可以安装了吧?但由于速度问题,已经没有价值了。

结论:

  • 在 ollama 下,采用 cpu 运行大模型,理论上,如果模型支持的话?采用任何一种参数 B值都可以运行?但可能会由于运算速度太慢,而失去价值。
  • 采用 8GB 内存的 cpu 来运行大模型,7B 可能很勉强,毕竟还要运行图形桌面,以及其他的 gui app。也许 6B 以下的大模型合适?这需要考虑在电脑上同时运行的其他软件所扣除的内存了?
  • 采用大 B参数,即使可以运行。但是,速度问题,在浪费时间,除非在不考虑速度的特别场景力。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值