
000-大模型
文章平均质量分 55
牛不才
c/c++ linux 后端 架构 搜索引擎
展开
-
ChatPromptTemplate的使用
ChatPromptTemplate 是 LangChain 中专门用于管理的提示词模板工具。它的核心价值在于,开发者可以预先定义不同类型的对话角色消息(如系统指令、用户提问、AI历史回复),并通过数据绑定动态生成完整对话上下文。原创 2025-03-16 18:21:31 · 1533 阅读 · 0 评论 -
langchain多人对话
【代码】langchain多人对话。原创 2025-03-16 18:00:14 · 273 阅读 · 0 评论 -
langchain框架
LangChain的架构分为多个层次,支持Python和JavaScript生态。原创 2025-03-16 17:44:48 · 269 阅读 · 0 评论 -
langchain入门实践
LangChain是一个帮助开发者更高效构建AI应用的框架,你可以把它想象成“语言模型的乐高积木”。通过标准化组件,开发者能像拼积木一样组合不同功能——比如用「提示词模板」控制模型回答格式,用「链」串联多个操作步骤,用「代理」调用计算器或数据库等外部工具。目前它支持超70种语言模型和700多个第三方工具(如谷歌搜索、维基百科),已成为开发聊天机器人、智能问答等AI应用的热门工具。.env 环境配置文件,这里用的是aliyun的key,模型用的是deepseek-v3。原创 2025-03-16 17:30:10 · 468 阅读 · 0 评论 -
risc-v架构
RISC-V不仅是技术架构的革新,更是一场。原创 2025-03-12 11:10:40 · 825 阅读 · 0 评论 -
什么是向量数据库&向量搜索?
专为高效存储与检索高维向量设计,支持语义搜索、推荐系统等AI场景,如文本/图像嵌入的相似性匹配。轻量级开源向量数据库,优势在于易用性(快速部署、简洁API)和小规模场景(本地开发、原型验证),常与AI模型(如OpenAI)配合实现RAG等应用。下面是一个简单的例子。原创 2025-03-11 20:20:33 · 235 阅读 · 0 评论 -
30行代码使用deepseek外挂知识库
【代码】30行代码使用openai外挂知识库。原创 2025-03-11 19:39:09 · 313 阅读 · 0 评论 -
我们为什么需要RAG?
RAG(检索增强生成)技术的必要性源于大语言模型(LLM)的固有缺陷及其应用场景的复杂性,其核心价值在于通过引入外部知识库优化模型输出。大语言模型(LLM)的固有缺陷是什么?LLM 基于概率生成文本的特性导致其可能输出看似合理但事实错误或无意义的内容。这种缺陷源于模型无法真正理解语义,仅通过统计关联生成答案。研究证明,LLM 的幻觉是数学上的必然现象,无法完全消除。例如,在医疗或法律等专业领域,模型可能虚构数据或混淆概念。LLM 依赖预训练数据,无法主动获取最新信息。且更新需重新训练模型,成本高昂。原创 2025-03-10 14:41:52 · 477 阅读 · 0 评论 -
AIGC和搜索引擎的异同
同样的问题,AI会像经验丰富的老师,直接告诉你:“先移到阴凉处,补充淡盐水,用湿毛巾降温”,还会附上权威医学网站来源。如果你追问“没有淡盐水怎么办”,它能接着建议“喝运动饮料或稀释的果汁”。当你问“中暑怎么办”,它会把所有相关网页链接给你,就像字典列出所有包含“中”和“暑”的页面,需要你自己挨个翻找。比如搜“做蛋糕”,会得到20个食谱链接,你得一个个点开看哪个靠谱。新一代AI搜索工具(如Perplexity、秘塔AI)采用。用日常生活中的例子来解释,搜索引擎和生成式AI的区别就像。原创 2025-02-27 14:31:53 · 719 阅读 · 0 评论 -
涌现和AI大模型
涌现是指复杂系统中由简单元素通过相互作用自发产生的整体特性或行为,这些特性无法从单独分析各组成部分中推导出来。涌现可以理解为“简单个体组合后产生意想不到的集体智慧”。就像,或者,这些现象都是涌现的体现。简单来说,涌现就是的魔法——当大量简单事物按特定规则互动,就会诞生超越个体总和的新特性,就像无数音符组成了震撼的交响乐。原创 2025-02-27 13:58:43 · 353 阅读 · 0 评论 -
欧式距离和余弦距离
直接计算“两点之间的直线距离”,适合需要物理空间或数值差异的场景。原创 2025-02-24 23:35:18 · 306 阅读 · 0 评论 -
OpenAI Function Calling 实践
OpenAI的Function Calling是一种与外部代码或服务交互的机制,它允许模型在生成响应时调用预定义的函数,使其能够实时访问外部数据和API接口,提升模型的应用价值,增强交互性和灵活性。原创 2025-02-24 07:30:00 · 532 阅读 · 0 评论 -
人工智能、机器学习、深度学习和大语言模型之间的关系
人工智能(AI)、机器学习(ML)、深度学习(DL)和大语言模型(LLM)之间是。原创 2025-02-23 17:51:48 · 541 阅读 · 0 评论 -
大语言模型中的 Token如何理解?
因为 AI 只能看懂数字,每个 Token 会被转成唯一的数字 ID(比如“猫”→ 12345),然后 AI 通过这些数字学习文字之间的关系,比如“猫”后面常接“很可爱”。,可以理解为 AI 处理文字时的“最小积木块”。就像搭乐高时,每块积木是基础单位一样,AI 会把你的话拆成一个个 Token 来理解和生成回答。,拆得越合理,AI 越懂你。原创 2025-02-23 17:00:12 · 330 阅读 · 0 评论 -
当你给大模型一段输入之后,它是怎么得到答案的
可以理解为:一个学霸整理过全世界所有教科书后,用最快的速度帮你“参考书本拼出答案的参考答案”。大模型并不是真有一个“数据库”,而是依靠训练时海量的知识联结:(类似人类的经验积累)生成类似:“太阳东升西落是由于地球自西向东自转形成的视觉现象。原创 2025-02-22 18:45:17 · 349 阅读 · 0 评论