
LLM技术优质文章
文章平均质量分 94
LLM技术优质文章
汀、人工智能
本博客将不定期更新关于机器学习、强化学习、数据挖掘以及NLP等领域相关知识,以及分享自己学习到的知识技能,感谢大家关注!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
字节DeerFlow开源框架:多智能体深度研究框架,实现端到端自动化研究流程
字节DeerFlow开源框架:多智能体深度研究框架,实现端到端自动化研究流程原创 2025-05-12 08:00:00 · 2216 阅读 · 0 评论 -
从AI助手到个性化数字分身:WeClone & Second Me打造本地化、私有化的个性化AI代理系统
从AI助手到个性化数字分身:WeClone & Second Me打造本地化、私有化的个性化AI代理系统原创 2025-05-09 21:06:19 · 1312 阅读 · 0 评论 -
解构语言模型推理过程,超越最终答案:通过分析子思考路径提升大语言模型推理准确性的方法研究
解构语言模型推理过程,超越最终答案:通过分析子思考路径提升大语言模型推理准确性的方法研究原创 2025-05-08 15:51:12 · 1030 阅读 · 1 评论 -
迈向自主决策的检索系统RAG 2.0:Modular RAG与类Agent交互范式探索
迈向自主决策的检索系统RAG 2.0:Modular RAG与类Agent交互范式探索原创 2025-05-08 12:46:28 · 73 阅读 · 0 评论 -
深度强化学习算法的前沿改进与应用:细粒度奖励机制设计、渐进式推理能力等
深度强化学习算法的前沿改进与应用:细粒度奖励机制设计、渐进式推理能力等原创 2025-05-02 08:00:00 · 90 阅读 · 0 评论 -
Qwen3强势来袭:推理力爆表、语言超百种、智能体协作领先,引领AI开源大模型
Qwen3强势来袭:推理力爆表、语言超百种、智能体协作领先,引领AI开源大模型原创 2025-04-29 14:30:52 · 1484 阅读 · 0 评论 -
LoRA及其变体:大模型微调技术的最新发展与应用
LoRA及其变体:大模型微调技术的最新发展与应用原创 2025-04-30 11:00:00 · 104 阅读 · 0 评论 -
速算:大模型训练和推理的显存占用计算
速算:大模型训练和推理的显存占用计算原创 2025-04-30 11:00:00 · 144 阅读 · 0 评论 -
强化学习在NLP任务中的迁移应用:分类与开放式问答的显著提升
强化学习在NLP任务中的迁移应用:分类与开放式问答的显著提升原创 2025-04-29 11:00:00 · 47 阅读 · 0 评论 -
快速探讨大模型中Function Call的设计与实现路径
快速探讨大模型中Function Call的设计与实现路径原创 2025-04-29 11:00:00 · 1185 阅读 · 0 评论 -
从Search到Deep ReSearch:解析现代搜索模型的任务分解与执行策略
从Search到Deep ReSearch:解析现代搜索模型的任务分解与执行策略原创 2025-04-28 11:00:00 · 198 阅读 · 0 评论 -
LLM推理:如何通过PRMs和MCTS提升大型语言模型的推理能力
LLM推理:如何通过PRMs和MCTS提升大型语言模型的推理能力原创 2025-04-25 15:15:03 · 1138 阅读 · 0 评论 -
大模型SFT数据筛选的艺术:探索IFD、Supperfiltering、MoDS、CaR、Nuggets与LESS的核心价值
大模型SFT数据筛选的艺术:探索IFD、Supperfiltering、MoDS、CaR、Nuggets与LESS的核心价值原创 2025-04-25 12:00:51 · 1480 阅读 · 0 评论 -
深度解析:透过十问十答洞悉大模型SFT的应用策略
深度解析:透过十问十答洞悉大模型SFT的应用策略原创 2025-04-23 11:45:00 · 163 阅读 · 0 评论 -
技术前沿对话:DeepSeek-R1与Kimi 1.5如何重塑AI开发的新思路
技术前沿对话:DeepSeek-R1与Kimi 1.5如何重塑AI开发的新思路原创 2025-04-23 11:45:00 · 1500 阅读 · 0 评论 -
构建更精准的检索系统:RAGFlow对GraphRAG与标签库的强化支持
构建更精准的检索系统:RAGFlow对GraphRAG与标签库的强化支持原创 2025-04-22 12:00:00 · 775 阅读 · 0 评论 -
技术前沿综述:RAG领域的重要进展与创新亮点
技术前沿综述:RAG领域的重要进展与创新亮点原创 2025-04-22 12:00:00 · 1835 阅读 · 0 评论 -
RAG 2025:深入探索推理机制与工程优化的前沿路径
RAG 2025:深入探索推理机制与工程优化的前沿路径原创 2025-04-21 18:00:00 · 1508 阅读 · 0 评论 -
多维度信息捕捉:利用向量、稀疏向量、全文搜索及张量实现RAG的极致性能
多维度信息捕捉:利用向量、稀疏向量、全文搜索及张量实现RAG的极致性能原创 2025-04-21 18:00:00 · 1181 阅读 · 0 评论 -
告别Hugging Face模型下载难题:掌握高效下载策略,畅享无缝开发体验
告别Hugging Face模型下载难题:掌握高效下载策略,畅享无缝开发体验原创 2024-08-06 07:45:00 · 2111 阅读 · 0 评论 -
【RLHF】想训练ChatGPT?先来看看强化学习(RL)+语言模型(LM)吧(附源码)
【RLHF】想训练ChatGPT?先来看看强化学习(RL)+语言模型(LM)吧(附源码)转载 2023-08-14 16:05:20 · 459 阅读 · 0 评论 -
一文搞清楚LORA、Prompt Tuning、P-Tuning、Adapter 、Prefix等大模型微调方法
一文搞清楚LORA、Prompt Tuning、P-Tuning、Adapter 、Prefix等大模型微调方法转载 2024-03-04 15:30:12 · 1978 阅读 · 0 评论 -
【RLHF】想训练ChatGPT?得先弄明白Reward Model怎么训(附源码)
【RLHF】想训练ChatGPT?得先弄明白Reward Model怎么训(附源码)转载 2023-08-14 16:09:28 · 900 阅读 · 0 评论 -
如何选择GPU显卡,带你对比A100/H100/4090性价比、训练/推理该使用谁?
如何选择GPU显卡,带你对比A100/H100/4090性价比、训练/推理该使用谁?转载 2024-03-21 16:07:32 · 48558 阅读 · 4 评论 -
挑战性能极限小显卡大作为,教你如何在有限资源下运行大型深度学习模型,GPU显存估算并高效利用全攻略!
挑战性能极限小显卡大作为,教你如何在有限资源下运行大型深度学习模型,GPU显存估算并高效利用全攻略!转载 2024-03-29 11:13:07 · 2027 阅读 · 0 评论 -
LLaMA, ChatGLM, BLOOM的参数高效微调实践
大语言模型的训练分为两个阶段:(1)在海量文本语料上的无监督预训练,学习通用的语义表示和世界知识。(2)在小规模数据上,进行指令微调和基于人类反馈的强化学习,更好地对齐最终任务和人类偏好。LIMA[1] 证明了,只需要有限的指令微调数据就可以生成高质量的回复。因此,基座模型的性能是至关重要的,如果基座模型的性能不够好,指令微调和强化学习也难以取得很好的效果。目前,主流的开源大语言模型主要有三个:LLaMA、ChatGLM 和 BLOOM。转载 2023-06-12 09:58:34 · 4566 阅读 · 0 评论