- 博客(8)
- 资源 (3)
- 收藏
- 关注
原创 LangChain+RAG+Agent本地部署DeepSeek-R1商用级知识库,完美实现低代码可视化流程编排
你相信单张RTX 4090也能部署商业级AI知识库吗?本文详细解析了如何利用DeepSeek-R1与RAG技术,在一张4090显卡上完成部署,打造出低代码可视化编排的企业级知识库系统。点击阅读,领略全流程实战经验,开启你的AI部署新纪元!
2025-02-19 23:10:13
1502
原创 DeepSeek闭门会讨论要点总结
DeepSeek的突破将中美AI差距缩小到仅3-9个月,挑战了有关AI发展的传统认知。这家中国初创公司仅凭少量GPU和对语言推理能力的专注研发,就达到了可与科技巨头比肩的成果,证明战略性的效率优化可以超越纯粹的算力投入。他们的创新方法将技术进步置于商业化之上,这一点从他们对开源的承诺和对基础研究的重视中可见一斑。这一成功标志着AI发展模式可能出现范式转移,表明专注的创新和资源优化可能比大规模投资更为重要。
2025-01-28 23:46:38
1091
原创 一镜到底,通过Llama大模型架构图看透transformers原理
想了解大模型 Llama 的工作原理?Llama Nuts and Bolts 项目不依赖外部库,通过 Go 语言从零构建 Llama 3.1 8B-Instruct 模型,为学习者提供了一个教育性深度探索,让您动手实践理解大型语言模型。
2025-01-21 15:57:57
909
原创 如何构建高效的AI智能体
简单才是王道:构建高效 AI 智能体的秘诀!工作流为简单任务提供可预测性,而智能体在复杂场景中展现灵活性。本指南深入解析如何优化工具设计、选择框架,并平衡复杂性与性能,助你构建可靠且高效的 AI 系统。
2025-01-06 21:10:36
799
原创 Llama 3.2 900亿参数视觉多模态大模型本地部署及案例展示
本文介绍了如何在本地部署Llama 3.2 90B(900亿参数)视觉多模态大模型,并开发一些Use Case,展示其强大的视觉理解能力。
2024-12-23 12:53:21
988
原创 AI大模型LLM微调技术—Activation Checkpointing
Activation Checkpointing是一种在训练大型神经网络(包括大型语言模型LLMs)中用来减少训练期间内存使用的技术。它使得可以在内存容量有限的硬件(如GPU或TPU)上高效地微调或训练具有数十亿或数万亿参数的模型。
2024-12-06 10:47:25
789
原创 AI大模型Llama 3系统级提示词格式Prompt Format
Llama 3的提示词格式Prompt Format和四种角色system,user,ipython,assistant
2024-12-02 17:41:22
1706
原创 IoT业界动态(即时更新)
本文随时更新每天发生的IoT业界动态。2016年5月4日:Microsoft 宣布收购意大利物联网平台 Solair,将其纳入 Azure IoT Suite2016年5月4日:三星发布Artik Cloud,布局物联网服务市场2016年5月3日:赛普拉斯将以5.5亿美元现金收购博通的无线物联网(IoT)业务及相关资产
2016-05-06 10:45:05
278
用.net研发msn聊天机器人
2009-05-06
飞信SDK开发短信收发程序
2009-05-06
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人