LLM Hallucination

本文探讨了大模型出现幻觉现象的原因,如训练数据杂乱可能导致错误认知。提出RAG、promptengineering和finetuning作为解决策略,以提高模型的专业性和准确性。同时,对未来AI在生产工具中的应用和可能替代某些职业进行了预测。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

What is hallucination?

训练出来的大模型,有可能给出一些不正确的,胡编乱造的答案。

Why hallucination?

个人理解可能是因为训练模型的资料很多很杂,可以想象成一个人什么都学,那么就有可能产生一些错误的认知,给出奇怪的答案。

How to solve hallucination?

根据最近的一些了解,RAG(retrieval augmented generation)应该可以消除一些hallucination。这个原理是提供给模型专业的数据和资料,让模型基于这些专业的资料库,生成确定且专业的答案,如果问题找不到答案,LLM也会知道这个问题它不会。

另外,Finetuning和prompt engineering应该也可以减少hallucination。

prompt engineering是提示词工程,给模型预先输入额外的提示词,可以帮助模型理解需要做什么任务。比如让它做一个中文翻译英文的任务,可以预先输入一些“中文,英文”的pattern,使模型知道下一个中文输入,它要输出对应英文。

Finetuning是给一些输入数据,在原有的基础上微调模型,比如调节模型的weights,过程可能跟模型训练类似。

上述三种技术应该可以结合起来使用,让LLM变得更加专业和准确,而不仅仅是语句接龙的功能。

What is future?

当前大模型能力还是有限,可以让现有的生产工具进一步升级,降低很多行业的进入门槛,比如,之前修图需要了解很多PS的使用方法和一些晦涩专业的PS工具词语,有了AI的加成之后,新的修图工具只要求修图人的审美水平在线,AI可以直接接收譬如“让皮肤变白”这样的自然语言指令。

未来大模型如果可以完成更复杂的任务,可能是目前炒作的AI Agency的概念,并且准确率超过人类的情况下,可以进一步提升生产工具,直接取代很多职业也是有可能的。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值