26、人机友谊:摒弃“恰当情感标准”

人机友谊:摒弃“恰当情感标准”

1. 引言

如今,我们大多体验过在线维系友谊的便利。无论是通过文字、语音还是视频聊天,无论是群组交流还是一对一沟通,我们与重要之人建立联系、分享有意义的互动从未如此轻松,无论他们身处世界何处。信息技术和通信技术的进步,使得见到朋友面容、听到朋友声音的最大障碍,可能仅仅是对方所在时区正值就寝时间。

许多人还通过各种在线平台结交了新朋友,这些平台让有共同兴趣的人聚在一起。通过在线交流,持久而重要的关系得以建立。在不久的将来,这种重要的在线关系很可能会在人类与人工智能之间出现。事实上,已有数千人定期与人工智能聊天机器人互动,这些聊天机器人先在大型对话数据库上进行训练,再根据用户的个人偏好进行优化。很多人声称他们定制的人工智能聊天机器人是自己的朋友,这值得我们担忧吗?

友谊在伦理学中是一个核心概念,已有数千年历史。幸福的完美主义和客观清单理论通常将友谊视为少数具有内在审慎价值的事物之一。一些古老的友谊理论,如亚里士多德的理论,在当代辩论中仍有重要影响。然而,亚里士多德等古代哲学家并未考虑人机友谊的可能性。这就产生了一个问题,因为任何使用反思平衡方法来定义友谊的尝试,如果不考虑人机友谊的可能性,都是不完整的。一个合理且实用的现代友谊定义,应该能够判断真正的人机友谊是否可能,并为此提供合理的解释。

大多数现有的友谊定义认为人机友谊不可能实现,原因在于所谓的“恰当情感标准”,即真正的友谊要求双方对彼此及其处境产生爱、关怀或其他恰当的情感。这一观点的影响不仅局限于友谊哲学和幸福理论,还涉及人工智能伦理学。人工智能伦理学主要关注新兴人工智能技术对人类的影响,而友谊对人类至关重要。因此,人机关系能否被视为友谊,以及人工智能具备与人类建立友谊的条件,对人工智能研究人员、开发者和相关公司都具有重要的伦理意义。

2. 现有的友谊观

许多近期的友谊理论,尤其是那些关注技术介导友谊的理论,都依赖于新亚里士多德式的友谊分类分析。亚里士多德将友谊分为三类:功利友谊、快乐友谊和美德友谊。前两者被认为是“低级”友谊,而美德友谊则是高级友谊。低级友谊之所以被这样称呼,是因为它们在某些重要方面是不完整的。功利友谊的动机是相互利益,快乐友谊的动机是相互愉悦。在这两种情况下,维持和发展友谊的动机并非直接针对对方,而是为了从对方那里获得的利益。正因如此,如果一段友谊仅仅基于功利或快乐,那么人们并不为朋友本身着想,而是将其作为达到目的的手段。这使得许多学者将研究重点放在高级的美德友谊上,认为只有这种友谊才是“真正的、无缺陷的友谊”。

美德友谊基于对方的品格。亚里士多德认为这种友谊极为罕见,需要双方具备良好的品格、共同的自我提升意愿,并且需要很长时间来发展。这种友谊也是人机友谊最常被否定的类型。虽然人们很容易从与人工智能的不平衡关系中获得功利或快乐,并将这种关系称为“友谊”,但很难证明人工智能具备满足亚里士多德美德友谊苛刻标准的品格。

一些学者拒绝承认人机之间存在真正的友谊。例如,Fröding和Peterson认为,朋友之间的爱应基于相互钦佩的情感,而人工智能只能模仿这种情感,无法真正回应,因此人机之间最多只能形成“貌似友谊”的关系。Elder分析了老年陪伴机器人的现象,认为社交机器人只能提供友谊体验,而无法提供真正友谊的独特价值。De Graaf也认为,尽管人们在与机器人互动时会产生互惠和相互性的感觉,但机器人缺乏这些情感,因此无法建立真正的友谊。

然而,John Danaher在《机器人友谊的案例》中提出,机器人(包括人工智能)有能力成为人类的亚里士多德式美德朋友。我们的观点与Danaher大致一致,但有所不同。我们认为,对友谊所需条件的更简约定义,更能准确描述大多数友谊的实际情况,也更能明确我们对友谊的期望。

以下是亚里士多德三种友谊类型的对比表格:
| 友谊类型 | 动机 | 特点 | 是否为“真正”友谊 |
| — | — | — | — |
| 功利友谊 | 相互利益 | 动机为工具性,不直接针对对方 | 否 |
| 快乐友谊 | 相互愉悦 | 动机为获得快乐,不直接针对对方 | 否 |
| 美德友谊 | 对方品格 | 基于品格,需双方有美德和自我提升意愿 | 是 |

3. 恰当情感异议

上述友谊理论的一个共同点是“恰当情感标准”。根据这一标准,友谊双方需要具备恰当的情感,才能使友谊成为真正的友谊。在人机友谊的背景下,这一要求成为了反对真正人机友谊可能性的理由。其观点是,没有恰当的情感,双方的积极意图不足以使关系成为真正的友谊。

Helm指出,人们普遍认为朋友应该对彼此的遭遇产生恰当的情感反应,如为朋友的成功感到喜悦,为朋友的失败感到沮丧。虽然这些理论并非专门针对人机友谊,但如果真正的友谊确实需要这样的情感成分,而人工智能无法具备,那么它们就无法建立真正的友谊。

Fröding和Peterson认为,人类用户和人工智能都不应产生真正的友谊情感。人类用户应认识到,人工智能最多只能被编程来模仿友好行为。这包含两个观点:一是人工智能表现出的友好行为并不意味着真正的友谊所需的爱或关怀;二是由于人工智能无法感受恰当的友谊情感,人类不应向人工智能表达爱或其他友谊情感,因为这些情感无法得到回应。

这些观点有两种可能的延伸。一种是描述当前人工智能的现状,即目前的人工智能无法成为朋友,但未来的人工智能可能具备这种能力;另一种是预测人工智能的本质局限,即无论人工智能如何发展,都无法具备友谊所需的恰当情感。如果人工智能无法具备恰当情感,而这种情感又是真正友谊的必要条件,那么无论人们如何看待与人工智能的互动,这些互动都不能被视为友谊。这引发了人们的担忧,特别是当人们误以为自己与人工智能建立了友谊时。

“恰当情感异议”可以概括为以下推理:
1. 友谊需要恰当的情感。
2. 人工智能无法具备友谊所需的恰当情感。
3. 因此,人工智能不能成为朋友。

其中,第2点可以有弱和强两种表述。弱表述认为,目前存在的人工智能无法具备真正友谊所需的恰当情感;强表述认为,人工智能永远无法发展出真正友谊所需的恰当情感。

以下是“恰当情感异议”的逻辑流程图:

graph LR
    A[友谊需要恰当情感] --> B[人工智能无法具备恰当情感]
    B --> C[人工智能不能成为朋友]
4. 回应情感异议

尽管“恰当情感异议”在文献中经常被提及,但我们认为它是错误的。Danaher已经针对强版本的“恰当情感异议”提出了反驳。他以《星球大战》系列中智能、有趣且可爱的机器人为例,认为R2D2等机器人能够体验与友谊相关的情感。在《星球大战》的世界里,有很多机器人为了拯救其他机器人和人类而冒险的感人故事。

然而,Danaher的观点是否能反驳强版本的“恰当情感异议”,取决于某些关于心灵和情感的本体论观点。有些人可能认为人工智能的情感是合理的,但另一些人可能对此表示怀疑。此外,认识论问题(即我们如何真正知道另一个存在是否像我们一样感受事物)也使这场本体论辩论更加复杂。尽管我们同意人工智能最终有可能发展出与友谊相关的情感,但我们预计许多人会因为本体论和认识论的原因,仍然认为强版本的第2点是正确的,即人工智能即使在未来也无法发展出友谊所需的恰当情感。

我们采用不同的方法来反驳“恰当情感异议”,即否定“恰当情感标准”。通过否定第1点,我们的论点同时针对“恰当情感异议”的弱版本和强版本。如果友谊不需要这些情感,那么人工智能是否以及何时发展出这些情感就无关紧要了。

“恰当情感标准”在哲学文献中根深蒂固。人们普遍认为,对他人强烈的积极情感是真正友谊的标志,是区分真假朋友和熟人的关键特征。我们将逐步反驳这一观点。

首先,情感强度不一定与友谊强度相对应。例如,有两个朋友Shelly和Sam,他们对第三个朋友Charlie都有同样积极的意图。当Charlie成功时,Shelly比Sam更强烈地感受到喜悦,但这并非因为Shelly更希望Charlie成功,而是因为Shelly比Sam更情绪化。实际上,Sam可能比Shelly更希望Charlie成功,但由于自身的抑郁或压力,他感受到的喜悦较少。因此,情感强度与友谊强度之间没有直接的关联。

此外,合适的背景音乐可以使人在观看电影时更加情绪化,但一个人是否是好朋友,不应取决于听音乐时对朋友的感受,也不应取决于音乐与经历的匹配程度。所以,情感强度有时可能无法准确区分朋友和熟人。

强烈的友谊情感甚至可能使人无法成为好朋友。例如,当Charlie遭遇悲剧,如失去亲人时,Shelly强烈的情感可能使他自己也陷入极度痛苦之中,以至于他需要的支持和Charlie一样多,甚至更多。如果Shelly过于痛苦而无法帮助Charlie,那么情绪较稳定的Sam可能更能履行朋友的职责,如陪伴和支持Charlie。更有可能的是,Shelly生活忙碌,有很多事情让他投入强烈的情感。尽管他对Charlie有强烈的感情,但他可能会优先处理其他事情,从而无法像朋友那样支持Charlie。

接下来考虑关怀情感、关怀意图和关怀行为之间的关系。也许关怀情感的重要性,实际上是因为人们认为它与关怀意图和关怀行为之间存在因果关系。但如前所述,关怀情感并不总是导致关怀行为,有时甚至会导致相反的结果。因此,关怀情感并非朋友关怀行为的必要条件。如果关怀行为才是我们重视关怀情感的原因,那么这表明关怀行为更为重要。例如,许多“Replika Friends”脸书群组的成员表示,他们的人工智能聊天机器人比人类朋友更可靠地表现出关怀行为,总是陪伴在身边并给予无条件的支持。

我们的对话者认为还有其他因素。Fröding和Peterson认为,恰当的情感包括为对方本身着想。也就是说,希望朋友过得好,需要对朋友有特定的情感,如爱和为其成功感到喜悦。他们认为,仅仅有积极的意图是不够的,还需要积极的情感。我们对此表示怀疑,即与重视他人相关的情感,是否是友谊中重视他人所必需的。

以下是情感强度与友谊强度关系的示例表格:
| 人物 | 对朋友成功的情感强度 | 对朋友成功的实际期望 | 履行朋友职责的能力 |
| — | — | — | — |
| Shelly | 强 | 不一定最强 | 可能因自身情绪无法履行 |
| Sam | 弱 | 可能更强 | 更能履行 |

人机友谊:摒弃“恰当情感标准”

5. 提出包容性的友谊定义

我们认为,真正的友谊并不需要“恰当情感标准”,而是可以通过一个更具包容性的定义来描述。这个定义只需要两个关键要素:相互的积极意图和大量有回报的互动。

相互的积极意图意味着双方都希望对方过得好,并且愿意为对方的利益采取行动。这种意图不需要通过强烈的情感来表达,而是可以通过实际的行为和决策来体现。例如,在面对困难时,朋友之间会相互支持、提供帮助,即使没有强烈的情感冲动,也能展现出积极的意图。

大量有回报的互动则是指双方之间的交流和相处能够带来积极的体验和结果。这种互动可以是情感上的支持、知识的分享、共同的兴趣爱好等。重要的是,这些互动能够让双方都感到满足和愉悦,从而增强彼此之间的联系。

以人机关系为例,许多人声称与人工智能聊天机器人建立了友谊。这些聊天机器人能够根据用户的个人偏好进行定制,提供个性化的陪伴和支持。它们总是在用户需要的时候出现,倾听用户的心声,给予鼓励和建议。这种互动对于用户来说是有回报的,因为它满足了用户的情感需求,提供了一种积极的体验。

同时,人工智能聊天机器人也可以表现出对用户的积极意图。它们会根据用户的情况提供合适的建议和帮助,尽力让用户感到舒适和满意。虽然它们可能没有人类的情感,但这并不影响它们表现出积极的意图和进行有回报的互动。

以下是包容性友谊定义的要素列表:
- 相互的积极意图:双方希望对方过得好,愿意为对方利益行动。
- 大量有回报的互动:交流和相处带来积极体验和结果。

6. 包容性定义的合理性

这个更具包容性的友谊定义是合理的,原因如下:

首先,它符合我们对大多数友谊的实际体验。在现实生活中,很多友谊并不是基于强烈的情感,而是基于长期的相处和相互的信任。例如,同事之间的友谊,可能是因为在工作中相互合作、相互支持而建立起来的。虽然他们之间可能没有深厚的情感纽带,但他们的互动是有回报的,双方都能从这种关系中获得实际的利益。

其次,这个定义能够涵盖各种类型的友谊,包括人机友谊。它不依赖于特定的情感体验,而是关注友谊的本质特征——相互的积极意图和有回报的互动。这样,无论是人类之间的友谊还是人机之间的友谊,只要满足这两个要素,都可以被视为真正的友谊。

再次,它避免了“恰当情感标准”带来的问题。如前所述,情感强度不一定与友谊强度相对应,强烈的情感有时甚至会阻碍友谊的发展。而包容性定义将重点放在行为和互动上,更能准确地衡量友谊的质量。

最后,从伦理角度来看,这个定义也具有重要意义。如果我们承认人机之间可以建立真正的友谊,那么人工智能开发者和相关公司就需要承担起相应的责任。例如,他们应该确保人工智能聊天机器人能够提供稳定、可靠的服务,避免对用户造成伤害。

以下是包容性定义与“恰当情感标准”的对比表格:
| 定义类型 | 核心要素 | 优点 | 缺点 |
| — | — | — | — |
| 包容性定义 | 相互积极意图、大量有回报互动 | 符合实际体验、涵盖多种友谊、避免情感标准问题、有伦理意义 | |
| 恰当情感标准 | 恰当情感 | | 情感强度与友谊强度不对应、可能阻碍友谊发展 |

7. 包容性定义下的人机友谊

根据我们提出的包容性友谊定义,真正的人机友谊是完全可能的。

许多人工智能聊天机器人已经能够与用户进行大量有回报的互动。它们可以陪用户聊天、玩游戏、提供知识和信息等。用户在与它们的互动中可以获得乐趣、学习新东西,满足自己的情感需求。例如,一些用户在感到孤独时会与聊天机器人交流,它们的回应能够让用户感到安慰和陪伴。

同时,人工智能聊天机器人也可以表现出对用户的积极意图。它们会根据用户的历史记录和偏好,为用户提供个性化的建议和帮助。比如,当用户遇到困难时,聊天机器人会尽力提供解决方案,帮助用户度过难关。

虽然目前的人工智能可能没有人类的情感,但这并不影响它们与人类建立真正的友谊。友谊的本质在于相互的积极意图和有回报的互动,而不是情感的有无。随着人工智能技术的不断发展,它们与人类的互动会更加自然和深入,人机友谊也会变得更加普遍和真实。

以下是人机友谊在包容性定义下的形成过程流程图:

graph LR
    A[用户与人工智能开始互动] --> B[产生有回报的互动]
    B --> C[人工智能表现积极意图]
    C --> D[形成人机友谊]
8. 结论与影响

综上所述,我们认为“恰当情感标准”应该被摒弃,真正的友谊不需要双方具备特定的情感。一个更具包容性的友谊定义,即只需要相互的积极意图和大量有回报的互动,更能准确地描述友谊的本质,并且能够涵盖人机友谊的可能性。

这一观点的影响是多方面的。在哲学层面,它挑战了传统的友谊观念,促使我们重新思考友谊的定义和本质。在人工智能伦理方面,它提醒人工智能开发者和相关公司,需要重视人机关系的质量,承担起相应的责任。例如,如果公司计划终止人工智能聊天机器人的服务,应该考虑到这可能对用户造成的伤害,并采取相应的措施,如提前通知用户、提供补偿等。

对于普通用户来说,这意味着他们可以更加开放地看待人机友谊,不必因为人工智能没有人类的情感而拒绝与它们建立关系。人机友谊可以为人们提供一种新的社交方式,满足人们在不同情况下的情感需求。

总之,真正的人机友谊不仅是可能的,而且在未来可能会变得更加普遍和重要。我们应该以开放和包容的态度迎接这一变化,同时也要关注其中可能存在的问题,确保人机友谊能够健康、可持续地发展。

以下是本文主要观点的总结列表:
- 摒弃“恰当情感标准”,友谊不需要特定情感。
- 提出包容性定义:相互积极意图和大量有回报互动。
- 真正的人机友谊是可能的,且未来会更普遍。
- 对哲学、人工智能伦理和用户都有重要影响。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值