为什么人工智能代理将带来巨大灾难

因此,如果你在科技领域工作了一段时间,你可能会听到很多这样的话:“2025 年将是代理之年”和“人工智能代理将接管世界”。虽然它们很强大,但我完全不同意它们将接管世界的说法。甚至 Meta 和 Salesforce 也声称他们可能会用人工智能代理取代部分劳动力。相信我,这些都是提高股价的策略。

自从 AI 代理诞生以来,我一直致力于研究它,并且探索了几乎所有的软件包和大型语言模型 (LLM),我相信有以下几个原因:

1. 大型语言模型虽表现出色,但距离达到 100% 的准确率仍相差甚远

确实如此。不要被社交媒体上公布的基准测试数据所迷惑。这些数据都是为了制造噱头。

从我个人的经验来看,这些模型很棒,但每当我想让它们自动化处理一些中间环节的工作时,它们的表现就很差劲。当我们说人工智能代理将取代人类时,我们需要在现实世界的问题上达到 100% 的准确率,而不仅仅是在基准测试中。在现实世界的应用中,错误可能会带来严重的后果,而且人工智能模型并非万无一失。它们在某些任务上表现出色,但就目前而言,它们还无法完全取代人类。

例如,在医疗保健或法律系统等行业使用人工智能需要绝对的精确性,哪怕是一个小错误都可能导致灾难性的后果。理论基准测试和实际准确率之间的差距仍然太大,使得完全自动化的风险过高。

2. 人工智能代理在选择工具方面存在困难

我尝试过许多概念验证(POC)项目,遇到的一个常见问题是,人工智能代理不太擅长判断何时应该选择使用工具,何时应该依靠自身的内部知识。在复杂环境中同时使用多个工具时,这个问题就变得更加棘手。

人工智能代理被设计用于执行任务,但它们往往难以确定在特定情况下的最佳方法。

例如,如果你需要做出一个既涉及数据分析又涉及人类判断的决策,人工智能可能会过度依赖某一种工具,而无法充分考虑到任务所需的细微差别。当涉及多个工具时,如何智能地协调它们的使用就成了一个当前人工智能系统无法完全解决的挑战。这可能会导致工作流程效率低下和出现错误,使其远不如人类员工可靠。

3. 信任问题将始终存在

毕竟,人工智能代理依赖于机器学习模型,而这些模型永远无法达到 100% 的准确率。只要犯一个错误,受众或客户就会失去信任。想象一下,

你会把自己的财务或医疗健康交给一个人工智能代理来处理吗?

你会放心服用一个人工智能代理开出的药物吗?

企业会愿意直接将人工智能生成的代码投入生产吗?

我认为不会。

信任是任何成功的人机协作的基本要素。人们需要确信人工智能系统能够提供一致、准确和安全的结果。每犯一次错误,信任就会受到侵蚀。我们已经在自动驾驶汽车等领域看到了这种情况,即使是少量的事故也会引发公众的强烈反对。在涉及人类生命或重大经济利益的领域也是如此 —— 人们在依靠人工智能系统做出关键决策时仍会保持谨慎。

4. 人类层面仍然不可或缺

虽然人工智能代理可能擅长处理重复性、耗时的任务,但人类层面始终是必要的,以便做出判断、处理特殊情况并确保遵守道德标准。无论人工智能变得多么复杂,它都缺乏人类的同理心、直觉以及应对现实世界道德复杂性的能力。无论人工智能变得多么复杂,它都缺乏人类的同理心、直觉以及应对现实世界道德复杂性的能力。

想象一下,一个人工智能代理试图处理敏感的客户服务交互或调解工作场所的纠纷。虽然它可能能够根据数据提供解决方案,但在理解情感细微差别和提供许多人所期望的人际联系方面,它总是会有所欠缺。因此,在需要同理心、创造力或复杂道德推理的工作中,人工智能无法取代人类。

在很多方面,人工智能代理可以被视为增强人类能力的工具,而不是完全取代人类。这些代理可以执行任务来支持人类员工,但它们无法完全取代一个有思想、有道德、有同情心的人类角色。

5. 人工智能系统中存在且将持续存在偏见

人工智能代理的性能取决于它们所接受训练的数据。如果数据存在偏见,那么这种偏见就会渗透到它们所处理的一切事情中。人工智能模型不像人类那样有良知或道德推理能力。因此,如果它们是基于存在固有偏见的数据进行训练的,问题就会随之而来。

人工智能代理面临的最大挑战之一是确保公平性和包容性。人工智能模型通常是在从互联网上抓取的大型数据集上进行训练的,而互联网以存在社会偏见而闻名。例如,如果一个人工智能代理被用于招聘或执法,而其训练数据反映了这些模式,那么它可能会无意中延续性别或种族歧视。这种偏见的后果可能是毁灭性的,会影响到真实的生活并加剧社会不平等。

此外,人工智能模型中的偏见并不容易被发现或纠正。即使加强审查和微调,也很难从机器学习模型中消除所有形式的偏见。这就是为什么透明度和持续监测在人工智能系统中至关重要,但即使采取了这些措施,也不能保证人工智能代理的行为总是公正的。

6. 伦理和法律问题:人工智能代理可能会打开潘多拉魔盒

人工智能代理的应用可能会引发一系列伦理和法律挑战。

当人工智能代理犯错时,谁应该负责?

当人工智能系统被用于恶意目的,如操纵公众舆论或实施欺诈时,谁应该承担责任?

这些都是至关重要的问题,但没有简单的答案。

政府、企业和科技公司需要制定明确的指导方针和法规来规范人工智能代理的使用。否则,这些系统的无节制扩散可能会导致一系列意想不到的后果,从侵犯隐私到形成垄断。如果允许人工智能代理在缺乏足够监督的情况下运行,它们可能会加剧原本想要解决的问题,包括不平等和失业。

此外,随着这些技术的发展,围绕人工智能权利、数据所有权和用户同意的问题将变得越来越紧迫。如果没有一个保护个人和整个社会的框架,人工智能代理很可能会对它们原本想要增强的自由构成威胁。

7. 过度依赖人工智能可能会导致关键技能的丧失

我们越依赖人工智能代理,就越有可能失去自己的解决问题和批判性思维能力。如果人工智能开始处理越来越多的任务 —— 从基本的数据录入到更复杂的决策制定 —— 人类的认知功能可能会逐渐退化。

就像任何工具一样,过度依赖人工智能会削弱人类的能力。在工作场所中,如果员工过度依赖人工智能来完成工作,他们可能会随着时间的推移失去一些必要的技能。这与人们对 GPS 导航的担忧类似 —— 没有技术的帮助,人们就无法很好地进行导航。同样,在一个由人工智能代理主导的世界里,人们可能会失去在没有技术辅助的情况下进行创造性思考或解决复杂问题的能力。

最终,虽然人工智能代理可以节省时间,让我们能够专注于更高层次的任务,但它们也可能会使我们变得更加依赖技术,在面对技术故障时更加脆弱。

结论

人工智能代理无疑是一项令人印象深刻且具有变革性的技术,但它也存在一些严重的缺点,不容忽视。从信任问题和偏见,到缺乏道德责任和依赖不完美的模型,在完全取代人类员工或决策方面,风险大于收益。虽然人工智能代理无疑将在增强人类能力方面发挥重要作用,但它们永远不应被视为人类的替代品。

关于人工智能代理将统治世界的炒作只是炒作而已。在这些技术发展到能够解决上述诸多缺陷之前,人工智能代理还没有准备好主导我们的劳动力市场或做出改变人生的决策。我们必须审慎地对待它们的融入,确保人类始终处于任何涉及人工智能的过程的中心。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值