1、我经常被问到一个问题,就是AI会不会取代工作?我的答案是,可能会。但是,AI也会带来许多新的工作。比如:提示词工程师、数据馆长,AI侦探、模型定制者、教育工程师、智慧医生。
2、实际上,1994年自动驾驶汽车就已经出现了;1997年,IBM的深蓝(Deep Blue)战胜了世界象棋冠军;2001年,IBM又推出了超级计算机沃森(Watson),可以使用人类自然语言回答问题。
3、直到2006年和2007年,有两位欧洲科学家推翻了之前科学界认为神经元不可复制的理论,他们认为计算机网络是能够模仿人类神经元的,所以在2006年-2007年推出了关于人工智能的网络,这也是人工智能深度学习的起点,现在的AI实际就是从深度学习开始的。
4、在2016年出现了DeepMind,通过深度学习谷歌推出了AlphaGo。基本在同一时间,还出现了一个生成式对抗网络,生成不同的图片,其实就是生成式AI的雏形。
5、今天我们在应用的就是生成式AI,它的爆发式增长是从2017年开始的。谷歌的科学家们推出了一个Transformer架构,这是应用神经网络的模型。不过在当时,它主要被应用为机器翻译。后来发现,它不仅是两种语言之间的翻译,还可以生成图片、视频,能够应用在不同领域。
6、一些结果证明,即便是小模型也能够拥有像ChatGPT一样的功能。我们真的需要这么大规模的数据去训练并应用吗?比如斯坦福的模型,当时只花600美元就可以训练。
7、加州大学伯克利分校的一个项目,机器人跟生成式AI是可以一起应用的;谷歌的PaLM-E机器人是根据多模态语言模型所开发的;英伟达也推出了一个以多模态模型为基础的机器人,能够做出很多不同的动作;斯坦福有个研究项目,通过让机器人观看视频里人类的行为去学习,然后去做跟这个人一样的事情,这其实也是我们人类学习的一种方式。
在“智启新元,创新无界”为主题论坛中,硅谷人工智能研究院院长皮埃罗•斯加鲁菲以《技术突破与可落地的人工智能》为主题进行了分享。从人工智能的历史,到生成式AI在教育、医疗、设计、营销等领域的具体应用,还分享了“AI会不会取代工作”以及“会创造哪些新的岗位”。
01
人工智能是1955年出现的,我自己也出生于1955年。
1955年,麻省理工学院的科学家提出了人工智能的概念。由于当时的计算机体积非常大,所以最早的人工智能有很多限制。
当时人工智能分为两个流派。一个流派,是以数学为基础的,是由一批数学家将计算机与自己的研究结合起来,从而进入人工智能领域。另外一个流派,则是想用电脑网络去模仿人类大脑的神经元,人类大脑有数万亿的神经元,可以想象一下这能有多少相似的地方。
在当时,第一种以数学为基础的流派是比较流行的。1969年时我还是个学生,有一位非常著名的科学家出版了一本书,证明了神经元网络是不可能的。他说,计算机怎么可能跟人类的神经元网络相比呢?所以在很长一段时间以来,人工智能的发展基本都是很受局限的。
实际上,1994年自动驾驶汽车就已经出现了;1997年,IBM的深蓝(Deep Blue)战胜了世界象棋冠军;2001年,IBM又推出了超级计算机沃森(Watson),可以使用人类自然语言回答问题。
直到2006年和2007年,有两位欧洲科学家推翻了之前科学界认为神经元不可复制的理论,他们认为计算机网络是能够模仿人类神经元的,所以在2006年-2007年推出了关于人工智能的网络,这也是人工智能深度学习的起点,现在的AI实际就是从深度学习开始的。
2012年,又有一位科学家和他的两位学生创建了AlexNet,一个非常著名的计算机视觉神经网络模型。AlexNet能够识别电脑中的任何一张图片,也再一次证明了神经元网络能够在计算机当中应用。
之后人工智能又取得了非常多的进展。比如说,在2016年出现了DeepMind,通过深度学习谷歌推出了AlphaGo。基本在同一时间,还出现了一个生成式对抗网络,生成不同的图片,其实就是生成式AI的雏形。
这些图片刚出来时,人们是非常震惊的,因为这些图片都是电脑生成的,不是真实存在的,现在看起来好像没有什么,但在当时非常轰动。
这个生成式对抗网络还能够把文字转换为图片,也可以把文字转换为视频,不过在当时要花比较长的时间。
02
今天我们在应用的就是生成式AI,它的爆发式增长是从2017年开始的。谷歌的科学家们推出了一个Transformer架构,这是应用神经网络的模型。不过在当时,它主要被应用为机器翻译。后来发现,它不仅是两种语言之间的翻译,还可以生成图片、视频,能够应用在不同领域。这就是生成式AI至今的发展进程。
当然生成式AI在未来也有不同的发展路径。
一个是定制化的语言模型。大家对ChatGPT应该非常熟悉,那应该注意到ChatGPT也会犯一些错误。但是,如果把ChatGPT的数据限制在一定范围内,它的结果可能会更精确。在某个具体领域去训练ChatGPT,比如医疗领域、运动领域或者制造业领域,它最后生成的结果会更加精确,用途也会更加广泛。
另一个模型目前还没有官方命名,我叫做Low-Compute AI。我们知道生成式AI要花很多钱,小型机构都没有办法去做,从理想情况来看,我们希望大家能够用自己的手机去做像OpenAI训练ChatGPT这样的事情。因为没有强大的大规模硬件,所以我想把它叫做低算力的AI。
一些结果证明,即便是小模型也能够拥有像ChatGPT一样的功能。ChatGPT也是从一个不可能变成可能的一个过程,它把所有吸纳的书本或者网页数据生成了结果,但是我们真的需要这么大规模的数据去训练并应用吗?比如说斯坦福的模型,当时只花600美元就可以训练。所以我认为,在这种小规模数据的领域也是可以应用AI的。
现在比较流行的还有多模态模型,可以把文本、图片、视频结合在一起,全部放在AI模型的训练当中。
03
我先跟大家分享一下AI在教育领域的应用。
不少学校老师告诉我,怕学生用ChatGPT去作弊。但是要看到硬币的两面性,我们也可以训练ChatGPT,让AI用那些知名科学家的教学方式去教授学生,或者用AI重现的形式教学生跟已故科学家互动,或者让学生阅读所有关于宋代的书籍。学生和拥有特定技能的聊天机器人对话,会发现这个学习过程非常有趣,这在很大程度上会改变我们的教育模式。
有公司咨询我,AI怎么帮助他们打造出更好的产品,AI在战略营销领域也很有用。
我们可以把市场的数据、客户的反馈、竞争者的信息集合在一起,然后让生成式AI去生成对于产品设计的见解,给出相应的建议。生成式AI在设计产品这方面是很有用的,还可以根据不同需求去定价。
AI在设计领域的应用也很广泛,比如用生成式AI设计一辆车,甚至可以设计一座城市。
人们总是说,AI可以帮助我们节省时间。实际上,它还可以提高个性化的程度,可以带来更好的决策,能够帮助提高收入。这不仅有利于整个行业,还有利于整个产业的发展。
医疗也是AI非常重要的应用领域。
我觉得AI可以帮助全科医生。比如当我们需要家庭医生,就可以24小时随时联系这个AI医生。AI也可以用来做癌症的检测,从小疾病到像癌症这样的重大疾病,AI可能都可以检测到。当然还可以用AI来跟病人进行交流,因为有时候医生给病人开药,但不会告诉病人为什么会得这样的病,这些就可以问AI得到一些解释,让病人更好地理解自己的病情。此外,医疗领域每年都会发表不计其数的论文,医生没办法一次性看完这么多论文,生成式AI就能够帮助医生总结这些论文,提取要点。
所以我把AI在医疗领域的应用叫做全科AI医生,就像全科医生一样具备广泛的功能。多模态AI其实也可以应用在医疗领域,医生可能要根据病人的眼睛、手、脸、X光片来诊断症状,这些也可以用多模态模型 同时生成。关于AI在医疗领域的未来发展,如今我们看到一个借助AI的医生,会认为这个医生一点都不专业。可是5年之后,医院有AI来辅助会变得普遍,10年之后就更加普遍了。
最后是机器人。
传统机器人主要是重复做一些简单的事情,比如工厂里的机器人。但是如今的机器人已经能够更加了解这个物理世界,并且适应不同环境的变化。
加州大学伯克利分校的一个项目,机器人跟生成式AI是可以一起应用的;谷歌的PaLM-E机器人是根据多模态语言模型所开发的;英伟达也推出了一个以多模态模型为基础的机器人,能够做出很多不同的动作;斯坦福有个研究项目,通过让机器人观看视频里人类的行为去学习,然后去做跟这个人一样的事情,这其实也是我们人类学习的一种方式。
生成式AI还能够被应用在哪些领域,有待我们去探索。
04
我经常被问到一个问题,就是AI会不会取代我的工作?
我的答案是,可能会。
但是,AI的出现也会带来许多新的工作:
第一是提示词工程师,就是去训练这些AI,怎么让它们做得更好;
第二是数据馆长,需要训练网络去保管数据、给数据分类等等,数据在AI当中是非常重要的;
第三是AI侦探,我们知道ChatGPT有时会犯一些错误,需要人们去检测、识别这些机器生成的信息到底是不是真的,有没有假消息;
第四是模型定制者,因为我们训练需要不同的模型,就是最基础的定制化聊天机器人也需要不同的模型去训练,需要有专门的人去定制这些模型;
第五是教育工程师,未来我们可能需要更多新的教育模式、教育工具;
第六是智慧医生,未来我们可能希望自己的医生跟AI有一些合作,因为AI懂得更多,而且能够获取更快更新的信息。
总的来说,AI可能会取代一部分工作,但同样也会创造一些新的工作。这些新工作可能会给世界带来更好的发展,谢谢大家!
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。