
人工智能系列
文章平均质量分 90
凯哥Java
这个作者很懒,什么都没留下…
展开
-
半小时内实现在Windows操作系统部署DeepSeek-R1大模型
因为Ollama以及我们需要下载的模型都是默认安装在C盘的,一般情况下,我们会给C盘分配的磁盘不是很大。那么在执行创建软链接命令前,需要多执行一步。在不依赖云端的情况下,Ollama 可以帮助用户搭建本地的大语言模型服务,适用于需要快速响应的场景,如本地聊天机器人、智能客服等。需要注意:因为Ollama是国外的,所以下载可能会有点慢,凯哥将下载好的文件已经放网盘了,有需要的朋友可以直接回复后获取。Ollama 通过简单的一行命令即可启动和部署AI模型,大大降低了模型部署的复杂度,适合开发者和个人用户使用。原创 2025-02-11 13:18:50 · 547 阅读 · 0 评论 -
DeepSeek-R1本地部署如何选择适合你的版本?看这里
在这些数字中,B代表“billion”(十亿),所以:1.5B意味着该模型有15亿个参数7B表示70亿个参数8B表示80亿个参数14B表示140亿个参数32B表示320亿个参数70B表示700亿个参数671B表示6710亿个参数这些模型的参数量越大,处理的数据和生成的内容就越复杂,但它们也需要更多的计算资源来运行。每种类型的硬件需求每个模型的计算和存储需求都有所不同,下面我们列出了DeepSeek-R1的各个型号,并给出了所需的硬件配置。原创 2025-02-11 08:30:00 · 804 阅读 · 0 评论 -
为什么选择本地部署DeepSeek-R1?这里有你需要的答案
现在的AI技术越来越火,DeepSeek-R1作为一款超级牛的深度学习工具,帮助了不少企业解决了大数据处理的问题。想象一下,你正在做一个重要的项目,结果突然打不开官网,或者响应超慢,工作进度全都被耽误了。相比官网和API的“黑箱操作”,本地部署能给你更大的灵活性,完全按照自己的方式来使用。就算官网很强大,但它毕竟是为大批用户服务的,个别人的请求就可能被拖慢,等得让人头大。而且,一旦部署成功,你就能够摆脱外部平台的限制,完全掌控自己的业务流程。万一他们的服务器坏了,或者网络出现问题,你就只能干着急。原创 2025-02-09 11:47:03 · 919 阅读 · 0 评论