为什么说 Bert 大力出奇迹

BERT模型的出现标志着自然语言处理领域的重大突破,它使机器能够以接近人类的水平理解语言,不仅在常识测试中表现出色,还能进行阅读理解、情感分析等复杂任务。这项技术有望推动虚拟助手、法律、医疗和金融软件的显著进步。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

转自:https://www.jiqizhixin.com/articles/2018-11-21-14

今年八月,来自西雅图一家AI组织Allen Institute for Artificial Intelligence的科学家公布了一组给机器出的英语测试题。题目检验了机器能否选择出适合语境的后半句话:

在舞台上,一位女士坐在了钢琴旁。她:

A)坐在了长凳上,而她的妹妹在玩玩偶。

B)微笑着听音乐。

C)在人群中看舞者跳舞。

D)紧张地把手指放到了琴键上。

对于你来说,可能是个很简单的问题,但对于机器则不然。人类能够答对这套测试题中88%的问题,而机器只答对了大约60%。对于科学家们来说,这个数字已经很不错了,因为他们深知建造一个能够理解自然语言的系统有多难。

两个月以后,Google团队发布了撼动自然语言处理(NLP)领域的Bert模型。使用了Bert模型的系统在回答上面的测试题时,正确率与人类不相上下。

Bert的到来为人工智能的发展带来了里程碑式的意义。在过去的几个月中,科学家们能够证明机器能以通用的方式学习多变的语言,并且应用到不同的具体任务中。例如,虚拟助手Alexa、Google Home,以及在法律、医疗、金融等领域自动分析文档的软件所运用的技术都能得以提高。

有了Bert,机器终于能跟能人进行自然的对话了。

但是也有一些负面影响:比如当社交媒体平台运用了这项研究,其中的聊天机器人可能会假装成人类,我们可能连是在跟人对话还是机器对话都傻傻分不清楚了。

研究学者已经证明了飞速发展的AI技术能够创造以假乱真的图片,当这类技术迁移到自然语言领域,我们需要对网上遇到的一切都要更加提高警惕。

这些新的语言系统是通过分析成百上千万人类写出来的语句来进行学习的。旧金山一家研究机构 OpenAI研发的一款系统,分析了数千本书籍,包括浪漫小说、科幻小说等文学作品,Google的Bert也研究了同样的书籍,另外再加上维基百科中的所有内容。

每个系统都是通过分析文本来学习一项特殊的技能。OpenAI系统学习的目的是猜到句子中的下一个单词是什么,而Bert是能够猜出一句话中任何一个缺失的单词是什么。但是在掌握这些特殊技能的同时,它们也学习了语言是如何进行组合的。

“如果Bert能够猜到百万语句中所缺失的单词(例如“一个人走近超市买了1 ____ 牛奶”),那么它也能够理解语言中单词之间的关系”,见证Bert诞生的谷歌科学家Jacob Devlin表示。

基于Bert的系统也能够将相关知识运用到其他任务中去。当研究人员给Bert提供一系列问题及对应的回答,它就能自主学习回答其他的问题。当向它“投喂”描述同一事件的新闻标题时,那么以后当两句相似的语句出现时,它就进行识别判断了。 而一般情况下,机器只能识别完全一致的语句。

Bert能够完成Allen Institute出的常识测试,也能够做阅读理解测试,回答关于百科全书中的问题,例如“氧气是什么?” “降雨量是指什么?” 这类的问题。在另外一个测试中,它能够对影评进行情感分析,判断出影评是正面的评价还是负面的。

Bert在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人的成绩:全部两个衡量指标上全面超越人类,并且还在11种不同的NLP测试中创出最佳成绩。

这类技术的出现能帮我们向AI领域中的许多长远目标迈近一大步,比如总结分析大量复杂的信息,来协助人们做一些重大决定。

在OpenAI系统公布的几周后,其他科学家将其应用到对话当中。一个独立的科学研究组织利用OpenAI的技术在一个由Facebook AI Lab等机构主办的比赛中创造了最佳聊天机器人。谷歌开源了Bert代码,技术人员则能够把它应用到不同场景的任务中去。Google科学家Devlin和他的团队已经用102种语言对它进行了训练。

在众多科研人员认为自然语言相关技术已经遇到瓶颈时,像Bert这样系统的出现让大家看到了无限潜能。这种技术背后的复杂数学系统叫做神经网络。近些年来,这类深度学习技术加速了人脸识别、无人驾驶等技术的发展。

Bert之所以能成功,部分原因在于它所依赖的神经网络在过去几年还没有如此强大的计算机处理能力。利用Google为神经网络搭建的计算机处理器,它能够在几天之内分析维基百科里的所有文章。

Devlin先生说,驱动Bert的想法已存在多年,但它们现在才开始发挥作用,是因为现阶段的硬件可以处理更多的数据。

像谷歌一样,其他几十家公司正在为这种机器学习专门制造芯片,许多人认为这种额外处理能力的涌入将继续加速各类AI技术的发展,尤其是自然语言方面的应用。

但质疑的声音也同时存在。一些学者认为,这项技术可以持续快速发展,是因为研究人员倾向于专注于他们可以取得进展的任务,并避免他们不能做到的任务。这些系统距离真正理解语句或行文中的含义还有很长的路要走。

虽然Bert通过了实验室的常识测试,但机器距离达到人类常识的高度水平还很远。但不得不说,自然语言研究的发展轨迹已发生变化,这是一个“爆炸式进展”的时刻。

原文链接:https://www.nytimes.com/2018/11/18/technology/artificial-intelligence-language.html#click=https://t.co/v0Raiygv0p

### BERT 和 GPT 的核心区别及其优劣势 #### 一、模型架构差异 BERT 是一种基于双向 Transformer 编码器的模型,它通过 Masked Language Model (MLM) 预训练方法学习词向量表示[^3]。这种设计使 BERT 能够捕捉到词语之间的上下文关系,从而在自然语言理解任务中表现色。 相比之下,GPT 属于单向自回归语言模型,采用的是标准的 Transformer 解码器结构。它的预训练目标是最大化给定前缀序列下下一个单词的概率分布[^1]。因此,GPT 更擅长生成连贯流畅的文本内容。 #### 二、性能对比 ##### (1)文本生成能力 GPT 在文本生成领域占据明显优势,在 LAMBADA 数据集上的困惑度(PPL)仅为 35.13,这反映了其强大的语义建模能力和较高的生成质量[^2]。然而,由于缺乏反向依赖机制,GPT 对未来信息的理解有限,可能导致部分复杂句式的处理不够精准。 ##### (2)上下文理解能力 对于需要全面考虑前后关联的任务来,比如问答系统或者情感分析,BERT 显示更优越的表现水平。因为它可以同时利用左侧和右侧的信息来推断当前位置的最佳填充项。而在 GLUE 基准评测里,BERT 及改进版本 RoBERTa 达成了多项 SOTA 成绩。 #### 三、应用场景匹配 - **适合使用 BERT 的情况** - 当项目重点在于深入解析文档内部逻辑联系时; - 或者当面临诸如命名实体识别(NER),共指消解等问题时。 - **更适合选用 GPT 的场合** - 如果需求侧重创造性的写作辅助工具开发; - 或涉及大规模开放域对话系统的构建,则应优先考量 GPT 系列产品[^4]。 ```python # 示例代码展示如何加载两个不同的预训练模型 from transformers import BertTokenizer, BertModel, GPT2Tokenizer, GPT2LMHeadModel tokenizer_bert = BertTokenizer.from_pretrained('bert-base-uncased') model_bert = BertModel.from_pretrained('bert-base-uncased') tokenizer_gpt = GPT2Tokenizer.from_pretrained('gpt2') model_gpt = GPT2LMHeadModel.from_pretrained('gpt2') ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值