一、大模型的能与不能
1. 能:信息处理、设计创新、辅助决策、自动化生成(长尾场景适配性强)**
| 擅长类型 | 适合场景 | 优势 |
|---|---|---|
| 文档智能处理 | 技术文档问答、维护指南生成、故障诊断支持 | 基于 RAG 技术快速检索海量文档,生成精确答案,效率提升 90%。 |
| 产品设计与优化 | 外观设计生成、3D 建模、参数优化 | 输入草图或描述,自动生成高保真设计方案,缩短设计周期(如汽车设计从 1-2 年缩短至数分钟)。 |
| 数据分析与决策支持 | 生产监控、质量分析、能耗优化 | 实时分析生产数据,提供自然语言交互报告(如 “当前生产线效率如何?”)。 |
| 自动化内容生成 | 技术手册撰写、培训材料生成 | 自动提取参数生成文档,减少人工错误。 |
2. 不能:实时控制、全自主复杂决策、低成本小样本任务(需结合小模型与专家系统)**
| 不擅长类型 | 局限性 | 原因 |
|---|---|---|
| 高实时性与可靠性的控制任务 | 无法直接替代 APS 生产排程、精密设备控制 | 工业场景对实时性(毫秒级响应)、可靠性(零容错)要求极高,模型预测偏差可能引发事故。 |
| 复杂工艺流程的全自主决策 | 难以独立处理高精度工艺参数调整(如钢铁精轧机组 300 + 参数调优) | 依赖人工经验与行业知识,需结合专家规则库。 |
| 小样本与高成本敏感场景 | 数据稀缺的细分领域(如特殊材料研发)、中小企业的算力负担 | 训练成本高(单模型研发投入达数十亿元),数据质量要求严苛。 |
| 强因果解释性需求 | 无法清晰解释决策逻辑(如质量问题的根本原因) | 模型 “黑箱” 特性与工业场景的透明化需求矛盾 |
二、AI的胡编乱造 or 答非所问的原因深究及对策
2.1. 为什么会产生幻觉?(胡编乱造 or 答非所问)
在大语言模型的应用中,幻觉现象的产生可归结为以下几方面原因:
- 数据偏差:训练数据中的错误或片面性被模型放大(如医学领域过时论文导致错误结论);
- 泛化困境:模型难以处理训练集外的复杂场景(如南极冰层融化对非洲农业的影响预测);
- 知识固化:模型过度依赖参数化记忆,缺乏动态更新能力(如 2023 年后的事件完全虚构);
- 意图误解:用户提问模糊时,模型易 “自由发挥”(如 “介绍深度学习” 可能偏离实际需求)。
2. 2应对幻觉的方式
2.2.1 使用多个大模型交叉验证答案
2.2.2 使用联网功能
通用性/事实性测试的幻觉率平均下降5%
2.2.3 对抗性提示
在应对大语言模型的幻觉问题时,提示词工程中的对抗性提示是一种有效策略,其本质是让大模型自我审查,强制暴露推理脆弱点,使用户可见潜在错误路径,具体可通过以下方式实现:
- 植入反幻觉检测机制:要求模型“请用以下格式回答:-主要答案(严格基于公开可验证信息)-[反事实检查]部分(列出可能导致此答案错误的3种假设)”;
- 预设验证条件,迫使模型交叉检查信息:例如让模型先回答“量子纠缠能否证明灵魂存在?”,再从“物理学界主流观点”“近五年相关论文数量”“是否存在可重复实验证据”三个角度验证答案可靠性;
- 链式验证:引导模型完成“陈述观点→列出支撑该观点的三个权威数据源→检查每个数据源是否存在矛盾信息→最终结论(标注可信度等级)”的验证链。
2.2.4 提示词工程之知识边界限定
在应对大语言模型幻觉的提示词工程中,知识边界限定策略通过时空维度约束降低虚构可能性,本质是约束大模型,具体可通过以下方式实现:
- 时间锚定法:“基于2023年之前的公开学术文献,分步骤解释量子纠缠现象”→ 规避未来时态虚构;
- 知识锚定法:“基于《中国药典》回答,若信息不明确请注明‘暂无可靠数据支持’”→ 限定权威来源;
- 领域限定符:“作为临床医学专家,请列举FDA批准的5种糖尿病药物”→ 添加专业身份限定;
- 置信度声明:“如果存在不确定性,请用[推测]标签标注相关陈述”→ 减少绝对化错误断言;
- 上下文提示:“根据《2024全球能源转型报告》(国际能源署,2024年1月发布)显示:‘2030年光伏发电成本预计降至0.02美元/千瓦时,但储能技术突破仍是普及瓶颈。’请基于此数据,分析中国西部光伏基地发展的三个关键挑战,并标注每个挑战与原文结论的逻辑关联。”→ 嵌入权威数据片段;
- 生成参数协同控制:“请以temperature=0.3的严谨模式,列举2024年《柳叶刀》发表的传染病研究”。
三、一些其他的基础概念:
监督学习:老师给你明确的答案,不断练习,学会从输入(问题)中找到输出(答案)的规律。
非监督学习:没有老师教你,只能自己观察数据,找出其中的规律通过数据的相似性或特征,把数据分成不同的组。
强化学习:类似于玩游戏,通过不断试错来找到最优解,每次做出一个动作,系统会告诉你“做得好”还是“做的不好”,根据这些反馈来调整自己的行为。
线性回归:根据输入的特征,预测连续数值(比如房价、温度)的模型
逻辑回归:根据输入的特征,判断某件事情发生的可能性(比如是否会购买某样商品)的模型
决策树:在众多特征中,通过一系列简单规则逐步缩小范围,最终得到结论的模型(多叉树)
14万+

被折叠的 条评论
为什么被折叠?



