大模型
文章平均质量分 72
river20190802
自动化工程师,兴趣方向:工业智能、异常检测、健康管理
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
qwen3试用体验
同时问qwen3:4b和deepseek-r1:7b,两个大模型都给出了正确结果,但qwen3:4b思考速度明显太慢。问题为:电动汽车电池管理系统SOC累积误差限值标准是多少?总体来说qwen3效果应该没有官方发布说的效果那么惊艳。直接新建对话回答也不对,原因在于5.3处理有歧义。可能是小模型表格识别能力不行,换一个标准。规范原文,正确答案应该是0.5。本地知识库+小模型仍然回答错误。在线没开联网功能也回答正确。继续追问,回答定位条文错误。导入本地知识库,回答错误。光用CPU有点吃不消。原创 2025-04-30 16:18:00 · 241 阅读 · 0 评论 -
无需魔法,单卡4090,Ubuntu20,离线本地部署DeepSeek-r1:32b+dify知识库RAG
网络测试:curl -x http://windows物理机IP:7890 https://api.ollama.ai/v1/version。export https_proxy=http://windows物理机IP:7890。export http_proxy=http://windows物理机IP:7890。设置GPU运行:export CUDA_VISIBLE_DEVICES=0。GPU占用还可以,回答还比较快,没有并发访问的情况下。source /etc/profile使配置生效,原创 2025-04-28 12:58:32 · 477 阅读 · 0 评论 -
无需魔法,无GPU,windows10,本地知识库部署DeepSeek-r1:1.5b/7b试用体验
3.硬件配置:个人荣耀I7笔记本电脑选择了7b,只用了CPU,有点慢,后续安装CUDA试试,10w以内配置服务器可以实现企业级应用,linux部署成本高一些。_deepseek 企业知识库-优快云博客。然后又安装了DeepSeek-r1:1.5b,速度很快,但是很多简单的问题都回答得不好,本地知识库还能识别多模态表格,但是问题回答错了。,注册和邀请双方都送100充值券,不充VIP也有不少免费的大模型可以用,亲测好用,强烈安利。一个更比一个强,还要啥自行车,赶紧用起来,多个大模型说的可以对比着看,哈哈。原创 2025-04-25 19:23:55 · 503 阅读 · 0 评论
分享