硅谷人工智能研究院院长:AI会取代一些工作,但也会带来这些新的岗位……

1、我经常被问到一个问题,就是AI会不会取代工作?我的答案是,可能会。但是,AI也会带来许多新的工作。比如:提示词工程师、数据馆长,AI侦探、模型定制者、教育工程师、智慧医生。

2、实际上,1994年自动驾驶汽车就已经出现了;1997年,IBM的深蓝(Deep Blue)战胜了世界象棋冠军;2001年,IBM又推出了超级计算机沃森(Watson),可以使用人类自然语言回答问题。

3、直到2006年和2007年,有两位欧洲科学家推翻了之前科学界认为神经元不可复制的理论,他们认为计算机网络是能够模仿人类神经元的,所以在2006年-2007年推出了关于人工智能的网络,这也是人工智能深度学习的起点,现在的AI实际就是从深度学习开始的。

4、在2016年出现了DeepMind,通过深度学习谷歌推出了AlphaGo。基本在同一时间,还出现了一个生成式对抗网络,生成不同的图片,其实就是生成式AI的雏形。

5、今天我们在应用的就是生成式AI,它的爆发式增长是从2017年开始的。谷歌的科学家们推出了一个Transformer架构,这是应用神经网络的模型。不过在当时,它主要被应用为机器翻译。后来发现,它不仅是两种语言之间的翻译,还可以生成图片、视频,能够应用在不同领域。

6、一些结果证明,即便是小模型也能够拥有像ChatGPT一样的功能。我们真的需要这么大规模的数据去训练并应用吗?比如斯坦福的模型,当时只花600美元就可以训练。

7、加州大学伯克利分校的一个项目,机器人跟生成式AI是可以一起应用的;谷歌的PaLM-E机器人是根据多模态语言模型所开发的;英伟达也推出了一个以多模态模型为基础的机器人,能够做出很多不同的动作;斯坦福有个研究项目,通过让机器人观看视频里人类的行为去学习,然后去做跟这个人一样的事情,这其实也是我们人类学习的一种方式。

在“智启新元,创新无界”为主题论坛中,硅谷人工智能研究院院长皮埃罗•斯加鲁菲以《技术突破与可落地的人工智能》为主题进行了分享。从人工智能的历史,到生成式AI在教育、医疗、设计、营销等领域的具体应用,还分享了“AI会不会取代工作”以及“会创造哪些新的岗位”

01

人工智能是1955年出现的,我自己也出生于1955年。

1955年,麻省理工学院的科学家提出了人工智能的概念。由于当时的计算机体积非常大,所以最早的人工智能有很多限制。

当时人工智能分为两个流派。一个流派,是以数学为基础的,是由一批数学家将计算机与自己的研究结合起来,从而进入人工智能领域。另外一个流派,则是想用电脑网络去模仿人类大脑的神经元,人类大脑有数万亿的神经元,可以想象一下这能有多少相似的地方。

在当时,第一种以数学为基础的流派是比较流行的。1969年时我还是个学生,有一位非常著名的科学家出版了一本书,证明了神经元网络是不可能的。他说,计算机怎么可能跟人类的神经元网络相比呢?所以在很长一段时间以来,人工智能的发展基本都是很受局限的。

实际上,1994年自动驾驶汽车就已经出现了;1997年,IBM的深蓝(Deep Blue)战胜了世界象棋冠军;2001年,IBM又推出了超级计算机沃森(Watson),可以使用人类自然语言回答问题。

直到2006年和2007年,有两位欧洲科学家推翻了之前科学界认为神经元不可复制的理论,他们认为计算机网络是能够模仿人类神经元的,所以在2006年-2007年推出了关于人工智能的网络,这也是人工智能深度学习的起点,现在的AI实际就是从深度学习开始的。

2012年,又有一位科学家和他的两位学生创建了AlexNet,一个非常著名的计算机视觉神经网络模型。AlexNet能够识别电脑中的任何一张图片,也再一次证明了神经元网络能够在计算机当中应用。

之后人工智能又取得了非常多的进展。比如说,在2016年出现了DeepMind,通过深度学习谷歌推出了AlphaGo。基本在同一时间,还出现了一个生成式对抗网络,生成不同的图片,其实就是生成式AI的雏形。

这些图片刚出来时,人们是非常震惊的,因为这些图片都是电脑生成的,不是真实存在的,现在看起来好像没有什么,但在当时非常轰动。

这个生成式对抗网络还能够把文字转换为图片,也可以把文字转换为视频,不过在当时要花比较长的时间。

在这里插入图片描述

02

今天我们在应用的就是生成式AI,它的爆发式增长是从2017年开始的。谷歌的科学家们推出了一个Transformer架构,这是应用神经网络的模型。不过在当时,它主要被应用为机器翻译。后来发现,它不仅是两种语言之间的翻译,还可以生成图片、视频,能够应用在不同领域。这就是生成式AI至今的发展进程。

当然生成式AI在未来也有不同的发展路径。

一个是定制化的语言模型。大家对ChatGPT应该非常熟悉,那应该注意到ChatGPT也会犯一些错误。但是,如果把ChatGPT的数据限制在一定范围内,它的结果可能会更精确。在某个具体领域去训练ChatGPT,比如医疗领域、运动领域或者制造业领域,它最后生成的结果会更加精确,用途也会更加广泛。

另一个模型目前还没有官方命名,我叫做Low-Compute AI。我们知道生成式AI要花很多钱,小型机构都没有办法去做,从理想情况来看,我们希望大家能够用自己的手机去做像OpenAI训练ChatGPT这样的事情。因为没有强大的大规模硬件,所以我想把它叫做低算力的AI。

一些结果证明,即便是小模型也能够拥有像ChatGPT一样的功能。ChatGPT也是从一个不可能变成可能的一个过程,它把所有吸纳的书本或者网页数据生成了结果,但是我们真的需要这么大规模的数据去训练并应用吗?比如说斯坦福的模型,当时只花600美元就可以训练。所以我认为,在这种小规模数据的领域也是可以应用AI的。

现在比较流行的还有多模态模型,可以把文本、图片、视频结合在一起,全部放在AI模型的训练当中。

03

我先跟大家分享一下AI在教育领域的应用。

不少学校老师告诉我,怕学生用ChatGPT去作弊。但是要看到硬币的两面性,我们也可以训练ChatGPT,让AI用那些知名科学家的教学方式去教授学生,或者用AI重现的形式教学生跟已故科学家互动,或者让学生阅读所有关于宋代的书籍。学生和拥有特定技能的聊天机器人对话,会发现这个学习过程非常有趣,这在很大程度上会改变我们的教育模式。

有公司咨询我,AI怎么帮助他们打造出更好的产品,AI在战略营销领域也很有用。

我们可以把市场的数据、客户的反馈、竞争者的信息集合在一起,然后让生成式AI去生成对于产品设计的见解,给出相应的建议。生成式AI在设计产品这方面是很有用的,还可以根据不同需求去定价。

AI在设计领域的应用也很广泛,比如用生成式AI设计一辆车,甚至可以设计一座城市。

人们总是说,AI可以帮助我们节省时间。实际上,它还可以提高个性化的程度,可以带来更好的决策,能够帮助提高收入。这不仅有利于整个行业,还有利于整个产业的发展。

医疗也是AI非常重要的应用领域。

我觉得AI可以帮助全科医生。比如当我们需要家庭医生,就可以24小时随时联系这个AI医生。AI也可以用来做癌症的检测,从小疾病到像癌症这样的重大疾病,AI可能都可以检测到。当然还可以用AI来跟病人进行交流,因为有时候医生给病人开药,但不会告诉病人为什么会得这样的病,这些就可以问AI得到一些解释,让病人更好地理解自己的病情。此外,医疗领域每年都会发表不计其数的论文,医生没办法一次性看完这么多论文,生成式AI就能够帮助医生总结这些论文,提取要点。

所以我把AI在医疗领域的应用叫做全科AI医生,就像全科医生一样具备广泛的功能。多模态AI其实也可以应用在医疗领域,医生可能要根据病人的眼睛、手、脸、X光片来诊断症状,这些也可以用多模态模型 同时生成。关于AI在医疗领域的未来发展,如今我们看到一个借助AI的医生,会认为这个医生一点都不专业。可是5年之后,医院有AI来辅助会变得普遍,10年之后就更加普遍了。

最后是机器人。

传统机器人主要是重复做一些简单的事情,比如工厂里的机器人。但是如今的机器人已经能够更加了解这个物理世界,并且适应不同环境的变化。

加州大学伯克利分校的一个项目,机器人跟生成式AI是可以一起应用的;谷歌的PaLM-E机器人是根据多模态语言模型所开发的;英伟达也推出了一个以多模态模型为基础的机器人,能够做出很多不同的动作;斯坦福有个研究项目,通过让机器人观看视频里人类的行为去学习,然后去做跟这个人一样的事情,这其实也是我们人类学习的一种方式。

生成式AI还能够被应用在哪些领域,有待我们去探索。

在这里插入图片描述

04

我经常被问到一个问题,就是AI会不会取代我的工作?

我的答案是,可能会。

但是,AI的出现也会带来许多新的工作:

第一是提示词工程师,就是去训练这些AI,怎么让它们做得更好;

第二是数据馆长,需要训练网络去保管数据、给数据分类等等,数据在AI当中是非常重要的;

第三是AI侦探,我们知道ChatGPT有时会犯一些错误,需要人们去检测、识别这些机器生成的信息到底是不是真的,有没有假消息;

第四是模型定制者,因为我们训练需要不同的模型,就是最基础的定制化聊天机器人也需要不同的模型去训练,需要有专门的人去定制这些模型;

第五是教育工程师,未来我们可能需要更多新的教育模式、教育工具;

第六是智慧医生,未来我们可能希望自己的医生跟AI有一些合作,因为AI懂得更多,而且能够获取更快更新的信息。

总的来说,AI可能会取代一部分工作,但同样也会创造一些新的工作。这些新工作可能会给世界带来更好的发展,谢谢大家!

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

在这里插入图片描述

<think>好的,我现在需要帮助用户解决关于Dify循环实现的问题。首先,我需要明确用户的具体需求。他们提到“dify 循环实现”或“dify 如何处理循环”,但Dify本身可能没有直接称为“循环”的功能,所以需要结合现有文档中的信息来推断可能的解决方案。 根据用户提供的引用内容,Dify工作流中有迭代节点[^1]。这可能类似于编程中的循环结构,用于重复执行某个任务。例如,在处理列表数据或需要多次执行同一操作时,迭代节点可以派上用场。我需要详细解释迭代节点的配置和使用步骤,确保用户能够理解如何设置循环次数或遍历数据集。 另外,用户可能对如何处理循环中的错误或性能问题感兴趣。引用[2]提到在Dify中处理PEM文件的问题,这可能涉及在循环中正确处理数据格式,避免错误积累。需要提醒用户在循环中注意错误处理和资源管理,确保每次迭代的稳定性。 引用[3]中的例子展示了如何结合FastAPI和Selenium进行实时监控并生成GIF,这可能涉及循环截取浏览器内容。虽然Dify本身可能不直接控制这类循环,但可以通过外部脚本或定时任务触发工作流,模拟循环执行。这部分需要说明如何将外部循环机制与Dify结合使用。 接下来,我需要组织回答结构。首先介绍迭代节点的基本概念和配置步骤,然后讨论循环中的数据处理和错误处理,最后补充外部触发循环的方法。同时,生成相关问题以帮助用户进一步探索,比如优化循环性能或处理复杂数据结构。 需要确保回答符合格式要求,使用正确的中文表达,行内公式用$...$,独立公式用$$...$$,但当前问题不涉及数学公式,所以可能不需要使用。同时,引用标识要自然地添加到相关段落末尾,如、[^2]、[^3]。 最后,检查是否有遗漏点,比如Dify的其他循环相关功能或用户可能遇到的常见问题,确保回答全面且易于理解。</think>在Dify中处理循环逻辑主要通过**迭代节点**实现,以下是具体实现方式和应用场景的解析: ### 一、Dify循环实现机制 Dify通过**工作流设计器**中的迭代节点处理循环需求,其核心原理类似编程中的`for循环`。迭代节点可遍历以下数据类型: - 数组列表:`["A","B","C"]` - 字典集合:`{"key1":"value1", "key2":"value2"}` - 数值范围:通过`range()`函数生成序列 配置示例: ```python # 模拟迭代节点的数据输入 input_data = { "dataset": [1,2,3,4,5], "process_logic": "item * 2" # 对每个元素执行乘以2的操作 } ``` ### 二、迭代节点的关键配置步骤 1. **数据源绑定**:将数组/字典类型变量连接到迭代节点的输入端口 2. **循环变量命名**:设定当前元素的变量名(默认为`item`) 3. **子流程设计**:在迭代节点内部构建需要重复执行的逻辑模块 4. **结果聚合**:通过`outputs`收集所有迭代结果,支持数组或对象格式 $$ \text{总耗时} = \sum_{i=1}^{n}(单次迭代时间_i) + 系统开销 $$ ### 三、循环中的特殊处理 1. **错误中断控制**: - 启用`continueOnError`参数可跳过失败迭代 - 通过`try-catch`模块包裹敏感操作 2. **并行优化**: ```python # 伪代码示例 Parallel.forEach(dataset, lambda item: process(item)) ``` 3. **结果过滤**: ```python filtered = filter(lambda x: x%2==0, processed_results) ``` ### 四、应用场景案例 1. **批量文件处理**:遍历存储桶中的文件列表进行格式转换 2. **数据清洗**:对数据库查询结果集进行逐条校验 3. **API轮询**:定时循环调用第三方接口直到满足特定条件
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值