- 博客(3)
- 收藏
- 关注
原创 为什么本地部署DeepSeek选择7B模型
可以看到,7B模型的数据大多数超出8B,而大小还小一点,所以选择是当然的。来源:DeepSeek官方数据(
2025-02-11 23:44:52
1061
原创 AMD 显卡笔记本windows11满血玩转Stable Diffusion
电脑配置:AMD Ryzen R7 6800H,16G内存,核显Radeon 680M,共享内存8G。测试了direct-ml版,还是zluda版本速度快,大概是direct-ml版本的5倍以上。以下正文。
2025-02-10 19:38:53
2512
1
原创 DeepSeek在笔记本电脑本地部署
春节期间,DeepSeek大出圈,试过本地SD的我也尝试着做了一下本地部署,没想到,太简单了,几乎不需要做任何处理!1,ctrl+alt+delete打开任务管理器,选则性能,然后提一个复杂点的问题,看CPU与GPU的负荷情况。再之后是8b,属于Ollama3蒸馏,大约4.9G,从测试得分看,还不如7b,所以是我的首选。我这里大约150kB/s。最轻量的是1.5b,即15亿参数,约1.1G,是DeepSeek训练的基础模型。2,在cmd窗口,运行ollama ps,看使用的运算单元是不是GPU。
2025-02-09 16:14:22
3151
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人