
AI学习
文章平均质量分 95
兔兔西
殿宇的支柱总是彼此分立的,橡树和松柏也不在彼此的阴影下生长
展开
-
【AI学习】检索增强生成(Retrieval Augmented Generation,RAG)
《检索增强生成技术(RAG)原理与应用》摘要: RAG通过结合检索与生成技术,将外部知识整合到LLM中,有效减少特定领域幻觉问题,相比微调成本更低。系统分为检索和生成两阶段:检索阶段通过文档分块(固定/递归/语义分块等)、向量嵌入(Word2Vec/BERT等)和相似性搜索获取相关知识;生成阶段利用重排序模型(LambdaMART/BERT-Pairwise等)优化结果,并通过提示模板增强LLM响应。核心组件包括嵌入模型、向量数据库、提示模板和LLM,适用于搜索引擎、推荐系统等场景,显著提升信息相关性和生成原创 2025-06-01 21:17:35 · 827 阅读 · 0 评论 -
【AI学习】机器学习算法
寻找自变量(解释变量)与因变量(被解释变量)之间的线性关联关系,通过构建线性方程来对数据进行拟合和预测。即两个变量之间是一次函数关系:图像是直线的。原创 2025-03-29 16:31:39 · 358 阅读 · 0 评论 -
【AI学习】深度学习,人工神经网络
在 年的 ImageNet 图像分类竞赛中取得了巨大成功,开启了深度学习在计算机视觉领域的热潮。采用了非常深的网络结构,通过堆叠多个 3x3 的卷积核来增加网络的深度,从而学习到更复杂的特征表示。传递到后一层神经元,不存在反向的连接,即不会出现从输出层反馈到输入层或者隐藏层之间相互反馈的情况,所以被称为 “前馈”。从数学角度来看,卷积是一种积分变换的数学方法,用于描述两个函数之间的一种特殊的运算关系。采用了多尺度的卷积核并行计算,能够同时捕捉不同尺度的特征信息,提高了模型的表达能力。原创 2025-03-27 21:50:36 · 728 阅读 · 0 评论 -
【AI学习】Transformer 模型与LLM(Large Language Model,大模型)
是一种基于自注意力机制(Self-Attention Mechanism)的深度学习架构,在自然语言处理、计算机视觉等多个领域都有着极为重要的应用。原创 2025-03-26 23:07:27 · 322 阅读 · 0 评论 -
【AI学习】概念了解
是一家致力于人工智能研究与开发的公司, 2015年成立,2022年发布了ChatGPT,2024年发布Sora大模型。原创 2025-03-26 22:52:59 · 360 阅读 · 0 评论