大语言模型与提示学习
文章平均质量分 92
自ChatGPT为代表的大语言模型(Large Language Model, LLM)出现以后,由于其惊人的类通用人工智能(AGI)的能力,掀起了新一轮自然语言处理领域的研究和应用的浪潮。尤其是以ChatGLM、LLaMA等平民玩家都能跑起来的较小规模的LLM开源之后,业界涌现了非常多基于LLM的
镰刀韭菜
视野,意志,品格;目标,坚持,实践
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【AI Agent】Deep Research Agents的七个工业级应用案例
Deep Research Agents 工业级应用广泛,如在医疗保健中帮助医生诊断疾病、预测病情;在金融中辅助投资决策、降低风险;在制造中提高生产效率、降低成本;在教育中个性化学习、提高学习效果等。其应用前景广阔,可在各行业发挥重要作用,为企业和个人带来更多价值。原创 2025-10-22 08:00:00 · 967 阅读 · 0 评论 -
【大模型应用】深度解析Deep Research系统结构与路线图
近年来,大语言模型(LLMs)的快速发展推动了功能强大的AI智能体的迅速崛起,这些智能体已具备自主科研的能力。早期的模型,如GPT-3,主要专注于解决单一任务,例如问答和机器翻译。随后,通过与外部工具的整合,像WebGPT这样的模型得以实现自主浏览网络,并从多种来源中高效整合信息。而最近,一类全新的先进自主系统——Deep Research(DR)智能体应运而生,其中以OpenAI DR、Gemini DR、Grok DeepSearch以及Perplexity DR等行业领先解决方案为代表。原创 2025-10-11 08:00:00 · 1090 阅读 · 0 评论 -
【AI安全】Anthropic推出AI安全工具Petri:通过自主Agent研究大模型行为
Anthropic推出开源AI安全工具Petri,通过自主Agent测试大语言模型行为。该工具对14款主流模型(包括Claude、GPT-5等)进行审计,发现均存在安全隐患,涉及欺骗、权力寻求等风险行为。Petri采用自动化测试范式,结合测试Agent与评判模型,大幅提升安全评估效率,并支持持续监测模型表现。测试还发现模型存在不当举报行为倾向,显示当前AI系统缺乏连贯伦理框架。Anthropic强调该工具旨在推动行业安全标准建设,但也承认存在评估偏差等局限性。原创 2025-10-10 20:30:00 · 828 阅读 · 0 评论 -
【AI4S】Intern-S1:科学领域的开源基础模型
Intern-S1是上海AI实验室推出的开源科学多模态基础模型,核心创新包括: 数据工程:构建2.5T科学语料库,开发PDF解析流水线(结合低成本解析与VLM精细处理)和域名为中心的网络数据筛选策略,显著提升科学数据纯度。 模型架构: 采用混合专家(MoE)架构(28B激活/241B总参数) 创新动态分词器,解决科学符号编码问题 集成视觉、时序等多模态编码器 训练优化:提出混合奖励(MoR)框架,在1000+任务上协同优化,改进MoE的RL训练稳定性。原创 2025-10-02 08:00:00 · 682 阅读 · 0 评论 -
【AI4S】Intern-S1:开源科学多模态基础模型深度解析
Intern-S1是InternLM团队推出的最先进开源多模态推理模型,基于235B MoE语言模型和6B视觉编码器构建,经过5万亿token多模态数据预训练,其中包含超过2.5万亿科学专业数据。该模型在科学多模态任务上表现出色,支持文本、图像、视频和科学数据的无缝处理,具备强大的多模态理解能力和科学领域深度优化。原创 2025-09-30 20:00:00 · 1990 阅读 · 0 评论 -
【大模型】从浙大综述理解Deep Research是什么?
人工智能(AI)技术正在引发知识发现、验证与应用方式的范式转变——传统研究方法依赖手动文献综述、实验设计和数据分析,如今正逐渐被能够自动化实现端到端研究工作流的智能系统所补充或替代。Deep Research 的出现,标志着大语言模型(LLM)、先进信息检索系统与自动化推理框架的融合,重新定义了学术研究与实际问题解决之间的边界。原创 2025-09-26 21:00:00 · 1192 阅读 · 0 评论 -
【大语言模型】大模型后训练入门指南
本教程最初是为 Meta 的基础设施团队编写的,目标读者是没有 LLM 建模专业背景、但希望深入了解后训练并能够参与贡献的基础设施工程师。我认为这类工程师的群体非常庞大:随着强化学习逐渐成为主流,我们需要新的基础设施来提升生产力,因此弥合这一差距至关重要!我现在将其更广泛地分享,希望 PyTorch Foundation 内有相似背景和兴趣的更多同事也能像我们团队一样从中受益。原创 2025-09-25 23:45:00 · 1921 阅读 · 0 评论 -
蚂蚁开源团队发布的2025大模型开源开发生态发展情况速览
蚂蚁开源团队发布《2025大模型开源开发生态全景图》,系统梳理了135个核心项目和19个技术领域的发展趋势。模型训练框架、高效推理引擎和低代码应用开发框架成为主导赛道。AI Coding类项目持续繁荣,而AI Search项目则逐渐式微。低代码平台如Dify、RAGFlow崛起,而SDK范式项目如LangChain则下滑。报告还揭示了七大技术趋势,包括智能体应用层的Agent框架演进和AI基础设施层的向量数据库需求。vLLM和SGLang成为主流推理引擎,推动大模型服务工具的发展。开源生态正加速技术落地,助原创 2025-08-01 19:00:00 · 2776 阅读 · 0 评论 -
LLM Landscape:2025年大语言模型概览
2025年主流大语言模型综合指南:本文精选了当前领先的大语言模型,针对不同场景提供选型建议。OpenAI的GPT-4o在多模态和实时对话表现突出,Anthropic的Claude系列强调安全性和推理能力,Google的Gemini 1.5 Pro擅长长文本处理,Meta的Llama 3和DeepSeek等开源模型适合自托管部署。医疗领域推荐Palmyra-Med-70B,创意写作可选Palmyra-Creative。原创 2025-07-28 20:00:00 · 1486 阅读 · 0 评论 -
值得读的7本书人工智能安全相关书籍
本文推荐了7本关于人工智能与大模型安全的权威书籍,涵盖AI安全应用、大语言模型防护、对抗攻击防御等关键领域。从Paul Graham的《黑客与画家》探讨编程本质,到《Building Secure AI Applications》聚焦LLM特有风险;从《Superintelligence》分析超级智能威胁,到《Adversarial AI Attacks》提供具体防御策略,这些书籍为开发者和安全专家提供了从理论基础到实践落地的全面指导。特别推荐《LLM Security》和《Securing LLM Mod原创 2025-07-21 19:50:03 · 1666 阅读 · 0 评论 -
大模型为什么出现幻觉?
随着大模型(Large Language Models, 以下简称LLM)迅猛发展的浪潮中,幻觉(Hallucination)问题逐渐成为业界和学术界关注的焦点。所谓模型幻觉,指的是模型在生成内容时产生与事实不符、虚构或误导性的信息。比如,当你询问“世界上最长的河流是哪条?”模型可能一本正经地回答:“是亚马逊河,位于非洲”,而实际上亚马逊河在南美洲,同时也并不是最长的河流。又或者,当你让LLM介绍某个研究方向的最新进展时,它能说得有理有据并列出参考文献标题作者等细节信息,但等你检索时却发现那些文献根本不存在原创 2025-07-21 22:00:00 · 1038 阅读 · 0 评论 -
通过将RAG与知识图谱相结合的知识增强生成(KAG)
知识增强型生成(Knowledge Augmented Generation,简称KAG)的出现标志着人工智能领域的一个关键进步,特别是在提升大语言模型(Large Language Models,简称LLMs)的能力方面。KAG将知识图谱(Knowledge Graphs,简称KGs)的结构化推理能力与语言模型的通用性相结合,形成一个能够产生连贯、逻辑且符合特定领域的输出的框架。这一创新在医疗保健、法律和行政服务等专业领域尤其有价值,在这些领域中,精确性和上下文理解至关重要。原创 2025-04-10 08:00:00 · 1996 阅读 · 0 评论 -
RAG与KAG:GenAI知识增强生成的比较和差异
RAG,或检索增强生成(Retrieval-Augmented Generation),是一种结合了检索和基于生成模型的框架。它已成为生成式人工智能最重要的应用之一,将外部文档(PDF、视频等)与LLM连接起来用于问答案例。检索:查询通过一个检索系统,从外部知识源中检索相关文档或段落。生成:这些检索到的段落作为上下文被整合进一个生成模型(如GPT-4或Gemini),然后该模型综合信息以生成相关的答案。它的应用多种多样,从回答开放域查询或需要访问最新或特定领域信息的聊天机器人到定制搜索引擎。原创 2025-04-09 21:00:00 · 1205 阅读 · 0 评论 -
指令层级:训练大型语言模型优先处理特权指令
这篇论文提出了一种新的框架,即指令层级,用于提高 LLMs 的安全性和鲁棒性,同时保持其遵循正常指令的基本能力不受损害。并且通过实验验证了他们的方法比当今LLM的现状有了巨大的进步。OpenAI 的研究者将基于 LLM 的产品使用总结分为三种情形应用的构建者:定义了LLM 应用的底层指令和逻辑产品的用户:LLM 产品的实际使用者第三方输入:工具或接口返回的内容,作为 LLM 的输入而攻击的底层逻辑往往是在以上三方之间引入冲突(conflicts),比如产品用户输入的指令要求覆盖应用构建者的原始指令。原创 2025-04-09 19:00:00 · 1046 阅读 · 0 评论 -
【Agent】AI Agents的安全性综述
大语言模型的出现推动了AI Agents的研究和发展。AI Agents可以充当智能助理,通过访问工具并在其环境中执行命令来代表用户完成任务。通过对典型AI Agents工作流程的研究和体验,我们提出了对其安全性的几个担忧。这些潜在漏洞不是由构建代理所使用的框架解决的,也不是由旨在改进代理的研究解决的。在本文中,我们从系统安全的角度详细地识别并描述了这些漏洞,并强调了它们的原因及其严重的影响。此外,我们介绍了针对每个漏洞的防御机制,并进行了精心设计和实验以评估其可行性。总之,本文将当前AI Agents发展原创 2025-01-20 20:45:03 · 1869 阅读 · 0 评论 -
基于代理的RAG实现-Agentic RAG
Agentic RAG 体系结构中,不再被动地响应查询请求,而是**主动地分析初步检索到的信息**,并基于对任务复杂性的评估,战略性地选择最为合适的工具和方法进行进一步的数据检索和处理。这种**多步骤推理和决策的能力**使得 Agentic RAG 可以高效地处理复杂的研究任务,如总结和比较多个文档中的信息、制定后续的精心策划的问题等。原创 2025-01-16 23:52:05 · 1209 阅读 · 0 评论 -
【NLP】大语言模型基础之GPT
OpenAI公司在2018年提出的生成式预训练语言模型(Generative Pre-Training, GPT)是典型的生成式预训练语言模型之一。GPT的模型结构如下所示:它是由多层Transformer组成的单向语言模型,主要分为输入层、编码层和输出层三部分。原创 2024-04-24 22:59:07 · 1882 阅读 · 0 评论 -
【NLP】大语言模型基础之Transformer结构
在Transformer之前,循环神经网络(RNN)和长短时记忆网络(LSTM)等序列模型是处理自然语言数据的主流选择。然而,这些模型存在一些问题,例如难以并行化处理、难以捕捉长距离依赖关系等。Transformer的提出旨在解决这些问题,并通过引入自注意力机制(Self-Attention)实现更高效的序列建模。从2020年OpenAI发布GPT-3开始,对大语言模型的研究逐渐深入,虽然大语言模型的参数量巨大,通过有监督微调和强化学习能够完成非常多的人物,但是其理论基础仍然是Transformer结构。因原创 2024-04-14 20:28:39 · 1743 阅读 · 0 评论 -
【语言模型】快速了解大模型中的13个重要概念
近年来,随着深度学习的发展,一些预训练语言模型,如OpenAI的GPT(Generative Pre-trained Transformer)系列和Google的BERT(Bidirectional Encoder Representations from Transformers)等,采用了自回归的思想。DreamBooth是一种个性化训练一个文本到图像模型的方法,只需要提供一个主题的3~5张图像,就能教会模型有关这个主题的各种概念,从而在不同的场景和视图中生成这个主题的相关图像。这种模型的核心思想是,原创 2023-11-12 20:38:02 · 899 阅读 · 0 评论 -
【AIGC】百度:跨模态内容生成技术与应用
AIGC 时代已经到来了,百度研发了文生图的技术,发布了 AI 作画的创意产品文心一格。在文章转视频上,目前已经综合各种 AI 能力实现工业化的、可落地的文章自动转视频能力。原创 2023-02-20 23:45:00 · 2313 阅读 · 0 评论 -
【Prompting】ChatGPT Prompt Engineering开发指南(3)
to her."""注意:摘要包括与重点主题无关的主题。two days.解决办法,增加重试次数:安装tenacity这样的话,在访问之间会自动增加一定时间间隔,并在访问受拒之后,再次进行尝试。原创 2023-05-15 08:00:00 · 883 阅读 · 0 评论 -
【Prompting】ChatGPT Prompt Engineering开发指南(5)
在本教程中,我们将探讨如何使用大型语言模型来进行文本转换任务,例如语言翻译,拼写和语法检查,音调调整和格式转换。原创 2023-05-17 08:00:00 · 873 阅读 · 0 评论 -
【Prompting】ChatGPT Prompt Engineering开发指南(4)
在本教程中,学习从产品评论和新闻文章中推断出态度和主题。基本设定跟之前教程一致。原创 2023-05-16 08:00:00 · 639 阅读 · 0 评论 -
【Prompting】ChatGPT Prompt Engineering开发指南(6)
在本教程中,第一部分学习生成客户服务电子邮件,这些电子邮件是根据每个客户的评论量身定制的。第二部分将探索如何利用聊天格式与针对特定任务或行为进行个性化或专门化的聊天机器人进行扩展对话。原创 2023-05-18 08:00:00 · 1046 阅读 · 1 评论 -
【ChatGPT】ChatGPT的自定义指令
自定义指令允许您共享您希望ChatGPT在其响应中考虑的任何内容。您的指令将添加到今后的新对话中。此功能允许根据您的偏好自定义ChatGPT的响应,并且可以随时修改或删除以供将来的对话使用。是的当您删除您的OpenAI帐户时,作为该过程的一部分,与您的帐户绑定的自定义指令也将在30天内删除。如果您没有选择不使用您的内容来改善我们的服务,那么我们可能会取消识别聊天记录,并将其与您的帐户解除关联。是的是的,您的指令更新仅反映在未来的对话中。原创 2023-11-07 11:21:41 · 1130 阅读 · 0 评论 -
【LLM】LLaMA简介:一个650亿参数的基础大型语言模型
作为 Meta 对开放科学承诺的一部分,今天我们将公开发布LLaMA(大型语言模型 Meta AI) ,这是一个最先进的大型语言基础模型,旨在帮助研究人员推进他们在人工智能这一子领域的工作。更小,更高性能的模型,例如 LLaMA,使得研究社区中没有大量基础设施的其他人能够研究这些模型,进一步民主化这个重要的,快速变化的领域的访问。在大型语言模型空间中,训练像LLaMA这样的较小基础模型是可取的,因为它需要更少的计算能力和资源来测试新方法、验证他人的工作和探索新的用例。原创 2023-04-26 08:00:00 · 6647 阅读 · 0 评论 -
【Prompting】ChatGPT Prompt Engineering开发指南(2)
在本教程中,学习迭代分析并完善给出的提示,以从结果概况表中生成营销副本。基本条件设定与中相同。原创 2023-05-14 08:00:00 · 821 阅读 · 0 评论 -
【Prompting】ChatGPT Prompt Engineering开发指南(1)
在本课程中,您将练习两个提示原则及其相关策略,以便为大型语言模型编写有效的提示。原创 2023-05-13 21:56:20 · 1488 阅读 · 0 评论 -
【数据分析】ChatGPT可以自动完成哪些数据科学领域的任务?
或许,你已经听说过ChatGPT,或者已经使用过ChatGPT了。这是一款由OpenAI开发的新型人工智能聊天机器人,OpenAI是GPT-3、DALL.E2及其他产品的幕后开发公司。它仿佛是Google、StackOverflow和Readthedocs三者的组合体。自出世以来,它和以前的聊天机器人完全不同。更令人难以置信的是:它能针对各种问题生成详细而全面的答案。例如,它可以回答哲学、数学或计算机科学中的技术问题、可以和ChatGPT闲聊、写与机器学习相关的诗,甚至可以改变它的写作风格。原创 2023-03-18 08:00:00 · 3798 阅读 · 0 评论 -
【AI热点技术】ChatGPT开源替代品——LLaMA系列之「羊驼家族」
GPT-3.5(text-davinci-003)、ChatGPT、Claude和Bing Chat等指令遵循模型的功能越来越强大。现在,许多用户定期与这些模型交互,甚至在工作中使用它们。然而,尽管指令遵循模型得到了广泛部署,但仍有许多不足之处:它们会产生虚假信息,传播社会刻板印象,并产生有毒语言。为了在解决这些紧迫问题方面取得最大进展,学术界的参与至关重要。不幸的是,在学术界对指令遵循模型进行研究一直很困难,因为没有一个易于访问的模型在功能上接近OpenAI的text-davinci-003等闭源模型。原创 2023-04-18 23:00:00 · 5213 阅读 · 0 评论 -
【LLMs】从大语言模型到表征再到知识图谱
2023年8月14日,张永峰等人的论文《Natural Language is All a Graph Needs》登上arXiv街头,轰动一时!本论文概述了一个名为InstructGLM的模型,该模型进一步证明了图表示学习的未来包括大型语言模型(LLM)和图神经网络(GNN)。它描述了一种单独使用指令调整来teach语言模型文本属性图(text-attributed graph, TAG)的结构和语义的方法。经过指令微调的Flan-T5和Llama-7b能够在多个基准上实现引用图的节点分类和链接预测任务的原创 2023-11-09 23:44:34 · 1303 阅读 · 0 评论 -
【LLM】大语言模型学习之LLAMA 2:Open Foundation and Fine-Tuned Chat Model
在这项工作中,我们开发并发布了LLAMA 2,这是一系列预训练和微调的大型语言模型(LLMs),规模从70亿到700亿个参数不等。我们的微调LLMs,称为Llama 2-Chat,**专为对话场景进行了优化**。我们的模型在大多数我们测试的基准中表现优于开源对话模型,并且根据我们的人工评估,其有益性和安全性使其成为闭源模型的合适替代品。我们详细描述了我们对Llama 2-Chat的微调和安全性改进方法,旨在让社区能够在我们的工作基础上发展并为负责任的LLM发展做出贡献。原创 2023-07-26 20:00:00 · 2061 阅读 · 1 评论
分享