见多识广10:大模型的一些基础概念

前言

来自知乎:https://www.zhihu.com/tardis/zm/art/1898067876017055575?source_id=1005
以及大模型的输出。
我仍然主要是做笔记。

大模型基础概念

LLM

用大量文本训练的语言模型,一般参数规模很大,能进行多种语言任务(如对话,回答问题,文本创作等等)。

AGI

Artificial General Intelligence——通用人工智能。就是像人一样能学习、处理各种问题的高级人工智能。

AIGC

人工智能生成内容。利用AI技术生成文本、图像、视频你等内容。如使用AI写小说、进行定制化的图像制作。

多模态模型

能同时处理文本、图像、语音等多种数据类型的模型。

大模型的涌现

当模型规模(如参数数量、训练数据量、计算资源)超过一个临界点之后,大模型的性能产生了质的飞跃,表现出在小规模模型中没有出现过的能力。(不过也有观点认为模型性能的提升是连续可预测的,只是在特定指标下表现为突然跃升)

对齐

指大模型的一些道德伦理观念和人对齐。比如哪些事情是好的,哪些事情是坏的,不能做。如此确保大模型的行为、输出和决策与人类的目标、价值观、伦理原则以及社会规范保持一致的过程。

大模型的幻觉

指大模型会生成一些看起来挺有道理、实际上完全错误的内容。它还自以为很对。比如,你问它某个领域有什么重要的论文,它会给你生成几个从来没出现的论文的链接,然后煞有介事地为你简要介绍这几篇论文。
GPT给的一个例子:例如,用户询问“秦始皇为什么喜欢用苹果手机”,模型可能会给出详细的解释,尽管秦始皇生活在没有智能手机的时代,这种现象被形象地称为“一本正经地胡说八道” 。

幻觉的类型

事实性幻觉:模型生成的内容与现实世界的知识或事实不一致。
上下文内幻觉(Intrinsic Hallucination):生成的内容与提供的上下文信息不一致或自相矛盾。
外在幻觉(Extrinsic Hallucination):模型生成的内容在上下文中未被提及,且无法通过外部知识验证其真实性 。

幻觉的成因

训练数据不足或质量问题:模型可能在缺乏足够高质量数据的情况下进行训练,导致生成不准确的信息。
模型的泛化能力:为了生成连贯的文本,模型可能会“猜测”或“编造”信息。
缺乏事实验证机制:当前的大模型通常不具备实时验证其输出内容真实性的能力。

缓解幻觉的方法

引入外部知识库:结合检索增强生成(RAG)技术,使模型能够访问和引用可靠的外部信息源。
人类反馈强化学习(RLHF):通过人类反馈优化模型的输出,使其更符合人类的期望和事实。

世界模型

简要理解是:智能体心中有一个世界,它根据这个世界作出决策。
GPT给出的:指的是智能体(agent)在内部构建的关于其所处环境的表征和动态预测模型。这种模型使得AI系统能够理解环境的结构、预测未来的状态,并据此进行推理和决策。它不仅仅是对环境的静态描述,更是对环境变化的动态模拟。

核心理念

智能体就像一个人一样,理解世界,预测未来,规划决策。

世界模型的关键组件

感知模块、动态建模、奖励预测、策略生成。

应用场景

机器人控制、自动驾驶、游戏AI、增强现实与虚拟现实(构建与现实世界一致的虚拟环境,提升用户体验)。

Scaling Law

大模型的性能会随着训练数据、模型参数、训练计算量的增加而越来越强。

具身智能

具有身体的人工智能。
强调智能体的智能行为是其身体、感知系统和环境之间紧密耦合的结果。
GPT给的解释:“具身智能”(Embodied Intelligence,简称EI)是一种强调智能体(如机器人或虚拟代理)通过其物理或模拟的身体与环境进行感知、学习和互动,从而实现智能行为的人工智能范式。这一理念认为,智能不仅源于大脑或算法,还深受身体结构和与环境交互的影响。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值