不出所料,自动驾驶向ChatGPT下手了!

 编辑 | 机器之心

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

ChatGPT 的技术思路与自动驾驶能碰撞出什么样的火花呢?

去年底,ChatGPT 横空出世。真实自然的人机对话、比拟专家的回答以及一本正经的胡说八道,使它迅速走红,风靡全世界。

不像之前那些换脸、捏脸、诗歌绘画生成等红极一时又很快热度退散的 AIGC 应用,ChatGPT 不仅保持了热度,而且还有全面爆发的趋势。现如今,谷歌、百度的 AI 聊天机器人已经在路上。

8430c51bafb944b250a5a66d64d08844.png

比尔盖茨如此盛赞:「ChatGPT 的意义不亚于 PC 和互联网诞生。」

为什么呢?

首先,人机对话实在是刚需。人工智能技术鼻祖的图灵所设计的「图灵测试」,就是试图通过人机对话的方式来检验人工智能是否已经骗过人类。能从人机问题中就能获得准确答案,这可比搜索引擎给到一大堆推荐网页和答案更贴心了。要知道懒惰乃人类进步的原动力。

其次,ChatGPT 实在是太能打了。不仅在日常语言当中,ChatGPT 能够像人类一样进行聊天对话,还能生成各种新闻、邮件、论文,甚至进行计算和编写代码,这简直就像小朋友抓到一只「哆啦 A 梦」—— 有求必应了。

除了看看热闹,我们也可以弱弱地问一句:ChatGPT 为啥这么能打呢

ChatGPT:我手握大模型,还会「杠」人类

先看一个「不要你以为,我要我媳妇以为」的例子。

之前,人类在和 ChatGPT 对话的时候,可以搬出「我媳妇这么说的」,「我媳妇说的…… 不会错」的时候,它就在稍微坚持之后就认怂并修改自己的回答。

d29f1c8e4a864c2076fbc230817e0dfc.png

但是经过了大量训练,ChatGPT 开始变得十分硬气。无论你是否搬出自己媳妇,它都会坚持真理,2+2 就是等于 4 了,管你是不是个「妻管严」,它都不会妥协了。

b6c2a1737d4567de25955fc4c08aa2ba.png

原来是 ChatGPT 被回炉重造,进行了一番真实性和数学能力的专门训练。反过来说,ChatGPT 是可以被人类带偏的。

那为啥呢?先来回答 ChatGPT 到底是个啥?它是个基于上千亿超大语料参数组成的 GPT3.0 架构训练出来的一个自然语言处理聊天工具。ChatGPT 的算法采用了 Transformer 神经网络架构,具有很好的时序数据处理能力,说大白话就是能很好处理上下文的语法关系。

Transformer 是一种结构简单的编解码器,几乎可以无限堆叠,从而形成一种大规模的预训练语言模型。基于 Transformer 模型构成的 GPT 架构可以很好地完成多种语言处理任务,填空、造句、分段、翻译等等,随着数据集和模型参数的大规模增长,等到 GPT3.0 的时候已经有了千亿规模,GPT 就表现出来了非常强的文本生成能力。

自然而然,一问一句的对话模式也就应运而生了。但 GPT3.5 还不是 ChatGPT。

2e6df47ad9ae71776bbbd07989f3e685.png

ChatGPT 还需要使用监督学习和强化学习来实现。具体来说,ChatGPT 使用了一种叫「人类反馈强化学习(RLHF)」的训练方法,在训练中可以根据人类反馈,保证对无益、失真或偏见信息的最小化输出。

简单来说,GPT 只能保证有问就有答,不保证回答的正确,而 ChatGPT 既要保证有的聊,还要保证聊的对。就跟小孩子一样,必须在大人一遍遍纠正发音、纠正语法和用词的训练中,学会真正的有效对话。

ChatGPT 就是利用人类反馈进行强化学习的产物。

既然 ChatGPT 这么好用。我们不妨来问它一个问题:能不能把 ChatGPT 用在自动驾驶技术训练当中?答案是:可以

毫末顾维灏:把 ChatGPT 引入自动驾驶,毫末走了这三步

我估计 ChatGPT 还没涉猎过这个问题,因为关于 ChatGPT 和自动驾驶关联的内容是缺少的。不过,如果 ChatGPT 最近在中文网络中收录过相关报道的话,那么,它就会知道中国的一家人工智能技术公司已经开始思考这个问题了。

在 1 月的毫末智行的 AI DAY 上,毫末 CEO 顾维灏非常隆重地提到了 ChatGPT,并且直言,毫末已经展开对于 ChatGPT 背后的技术的研究。

顾维灏说:「实现 GPT3 到 ChatGPT 的龙门一跃最重要的是 ChatGPT 模型使用了『利用人类反馈强化学习 RLHF』的训练方式,更好地利用了人类知识,让模型自己判断其答案的质量,逐步提升自己给出高质量答案的能力。」

ad248d1415a8f70feef811e101c37a1b.png

那这对自动驾驶有什么启发呢?毫末认为,ChatGPT 的技术思路和自动驾驶认知决策的思路是不谋而合

毫末在认知驾驶决策算法的进化上分成了以下三个阶段:

  • 第一个阶段是引入了个别场景的端到端模仿学习,直接拟合人驾行为。

  • 第二个阶段是通过大模型,引入海量正常人驾数据,通过 Prompt 的方式实现认知决策的可控可解释。

d42d246e2ccceb774d28e13dd49ddd75.png

  • 第三个阶段就是引入了真实接管数据,在其中尝试使用「人类反馈强化学习(RLHF)」。一般来说,人类司机的每一次接管,都是对自动驾驶策略的一次人为反馈;这个接管数据可以被简单当成一个负样本来使用,就是自动驾驶决策被纠正的一次记录。同时也可以被当作改进认知决策的正样本来学习。

为此,毫末构建了一个 < 旧策略、接管策略、人工 label 策略 > 的 pairwise 排序模型。基于这个模型,毫末构建了自动驾驶决策的奖励模型(reward model),从而在各种情况下做出最优的决策。

cd8e9e61445d084c1f6c27d4abba81e4.png

毫末将这一模型称之为人驾自监督认知大模型。简单来说,就是为了让自动驾驶系统能够学习到老司机的优秀开车方法,让毫末的认知大模型要从人类反馈中学会选择和辨别,并稳定地输出最优解。通过这种方式,毫末在掉头、环岛等公认的困难场景,通过率提升 30% 以上。

94098373a8178a516656a48e94b20413.png

当然,如果 ChatGPT 再继续搜索和学习下去,它就会知道在 1 月初的 HAOMO AI DAY 上,毫末不仅发布了这个人驾自监督大模型,还一口气发布了另外四个大模型。这五个大模型可以帮助毫末实现车端感知架构跨代升级,将过去分散的多个下游任务都集成到一起,形成一个更加端到端架构,包括红绿灯、局部路网、预测等任务,实现跨代升级。

总得来说,人工智能技术是当前许多旧产业的改造器,也是新产业的助力器。正如当年互联网喊出的「所有行业都要被互联网重塑一番」一样,今天的一切行业都要被「AI+」改造一番。

而实际上,人工智能的这场变革并不是必然发生,它有赖于一个天才算法结构的横空出世,有赖于海量数据和算力的成本下降与容易获得,也依赖于人工智能技术从业者的勇敢尝试。ChatGPT 的出现是如此,自动驾驶的实现也是如此。

国内首个自动驾驶学习社区

近1000人的交流社区,和20+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(分类、检测、分割、关键点、车道线、3D目标检测、多传感器融合、目标跟踪、光流估计、轨迹预测)、自动驾驶定位建图(SLAM、高精地图)、自动驾驶规划控制、领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

6fb233c6f8d1de5a9e3246cf6db0a035.jpeg

自动驾驶之心】全栈技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多传感器融合、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、硬件配置、AI求职交流等方向;

35907b6379ed41b40342dd0557e8a8eb.jpeg

添加汽车人助理微信邀请入群

备注:学校/公司+方向+昵称

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值