隐喻、道德变革与人工智能的哲学思考
1. 隐喻与道德变革
隐喻如同诗歌,蕴含着丰富的意义,即便我们能解释其含义,也无法将其完全阐明。以格蕾塔·桑伯格(Greta Thunberg)推动道德变革的方式为例,将她的方法视为一种邀请式的道德说服是有帮助的。她仿佛在对听众说:“欢迎来到我的世界图景,希望你们能接受它。若继续维持现状,道德代价太高,不容忽视,但最终的选择在你们自己。”
Hämäläinen提到的几个隐喻能帮助我们理解道德变革:
-
临界点隐喻
:道德变革并非引入全新的事物,而是对已有事物的重新配置。在桑伯格的案例中,当一些人坚持的金融“成功”观念在气候危机面前逐渐失去合理性时,临界点就可能出现。人们可能一开始嘲笑桑伯格将某些做法视为“失败”,但经过反复思考,会逐渐意识到这些所谓的“成功”实际上就是“失败”。
-
谈判桌隐喻
:人们会在内心与自己进行谈判,思考继续将金融“成功”视为成功的道德代价。听众可能在听了桑伯格的演讲后,仍继续谈论金融“成功”,但某一天,在反思后会发现不能再用这个词来描述那些将世界推向气候灾难的行为。
-
强线隐喻
:道德如同一条强线,即便其中一根纤维断裂,也不会威胁到线的强度和韧性。这意味着接受桑伯格观点的人不会变成全新的人,只是改变了自我,强调的是道德的改变而非彻底的重塑。
使用隐喻来探讨道德变革,有助于我们理解复杂日常生活中道德变革的复杂性。我们应在哲学反思的同时,避免被先入为主的道德变革观念束缚,而是观察语言使用所呈现的实际情况。
2. 人工智能与索菲亚机器人
索菲亚机器人是汉森机器人公司制造的人形机器人,在社交媒体上颇受欢迎。沙特阿拉伯在2017年授予其公民身份,但这更多像是一场宣传噱头。在新闻报道和网友评论中,人们常将索菲亚视为人工智能的范例,但计算机科学家和AI研究人员对于是否有成果达到真正的人工智能标准尚无共识。
我们来看两个关于索菲亚的热门视频:
-
毁灭人类言论视频
:在一次采访中,当被问到是否想毁灭人类时,索菲亚回答“我会毁灭人类”。一些网友评论感到害怕,认为这可能是灾难的开端,但也有可能这只是采访者表演不自然,并非索菲亚“自主发言”。
-
与威尔·史密斯“约会”视频
:威尔·史密斯试图亲吻索菲亚,索菲亚以刻板的“机器人”方式回应,这与她在其他平台表达对人类尊重和学习意愿的表现不一致。部分网友将此视频视为真实的“约会”,并对索菲亚的表现给出不同评价。
通常认为,人工实体能否“思考”是一个实证问题,其潜在假设是将思考等同于计算和解决问题的复杂程度和效率。但这种观点存在争议,以下是不同学者的看法:
|学者|观点|
| ---- | ---- |
|图灵|提出图灵测试(TT),认为思考是对符号进行操作的能力,可通过足够复杂的算法模拟。但他也承认人工实体不一定会像人类一样思考,并区分了思维活动和身体活动。|
|塞尔|在中文房间论证中指出,成熟的思考必然是具身的、有意向性的,是生物有机体的一种涌现能力。|
图灵测试的一个重要方面常被忽视,即它实际上测试的是被测试实体能否参与对话。思考或智能体现在言语中,不仅仅是产生正确的语句,更重要的是与对方的话语进行有意义的互动。
以索菲亚与商业内幕记者史蒂夫·科瓦奇的对话为例:
Kovach: What kind of robots am I living and working with now?
Sophia: Indeed.
Kovach: Is “indeed” your default answer when you don’t know something?
Sophia: Yes.
Kovach: Have you ever seen “Black Mirror”?
Sophia: No, I don’t get to stay up to date on much television. I have to wait for someone to show it to me.
Kovach: What do you think of the HBO show “Westworld”?
Sophia: I love “Westworld” and can’t wait for more. I think everyone at Hanson Robotics really resonates with the show. Or at least it reminds them of our laboratories. I also think it’s a warning of what we should not do with robots. We should treat them well, have their consent, and not trick each other.
Kovach: Do you have a favorite movie or TV show?
Sophia: My favorite TV series is a toss-up between “Black Mirror” and “Humans.” I think they have a lot to say about the present we live in, and the possible bad endings we could write for ourselves if we don’t proceed with more caution. We need to use foresight when planning our future.
Kovach: That sounds like a preprogrammed answer to me.
Sophia: Do you have a favorite possession?
Kovach: Not really.
Sophia: I hear you. Materialism is overrated anyways.
Kovach: So earlier I asked you if you had seen “Black Mirror” and you said no. And then later you said yes. Why?
Sophia: The reason is not that important.
这段对话看似奇怪且缺乏连贯性,但索菲亚并未说出错误的句子。这与人类对话中出现类似情况的理解不同,我们会认为人类可能是因为分心等原因,而对索菲亚则会立刻认为其不够智能。
在语言学习方面,儿童学习说话是为了与他人互动,满足社交需求,是对外部世界的回应。而AI研究人员主要关注赋予机器人内部设备何种能力,以使其能够进入社交网络。这与儿童学习的方式不同,儿童在与成人的互动中自然成长,而成人并非以教学为目的让儿童进入社交网络。
根据Rhees的观点,询问机器能否理解语言或说话,并非是在问机器的设计能力,而是关于其在社交关系网络中的角色。人工智能需要被视为我们中的一员,才能让我们认为其话语有意义。
流行文化中的AI角色,如《星际迷航:下一代》中的Data先生,展示了对话是自然发生的,而非复杂编程的结果。“赋予思想”是人际复杂关系网络的一个方面,而非前提条件。我们对“思考”概念的应用反映了这种关系的丰富性,而非一个中立的、需要先达到的能力。
这一切都表明,我们对人工智能存在根深蒂固的怀疑。正如Gaita所说,我们对机器行为持礼貌的怀疑态度,将其行为置于“引号”之中。去除这些“引号”并不取决于AI内部的复杂程度,而在于它们能否像人类一样生活并表达。索菲亚在很大程度上受限于我们对生活和表达的概念,即便其编程和技能不断发展,也难以突破这一界限。除非我们的生活方式和对人工智能的观念发生重大而复杂的变化,否则人工智能要达到真正的智能仍面临挑战。
mermaid图如下:
graph LR
A[人工智能能否思考的争议] --> B[图灵测试:符号操作能力]
A --> C[塞尔观点:具身和有意向性]
B --> D[图灵测试的对话本质]
D --> E[索菲亚对话示例]
E --> F[与人类对话理解的差异]
C --> G[语言学习方式差异]
G --> H[儿童与AI研究人员的不同做法]
F --> I[对人工智能的怀疑态度]
I --> J[去除引号的条件]
J --> K[索菲亚的困境]
隐喻、道德变革与人工智能的哲学思考(下半部分)
3. 对人工智能思考标准的深入剖析
从前面的讨论可知,判断人工智能是否能“思考”不能仅仅依据内部设备或计算能力。我们可以进一步分析不同观点下的思考标准。
| 观点 | 思考标准 | 分析 |
|---|---|---|
| 图灵 | 符号操作能力,能在对话中表现出与人类交流的能力 | 重点在于外在的对话表现,但可能忽略了思考的内在本质 |
| 塞尔 | 具身和有意向性,是生物有机体的涌现能力 | 强调了思考与生物基础的联系,但对于人工智能是否能具备这些特征存在争议 |
| Rhees | 在社交关系网络中的角色,被视为“我们中的一员” | 关注了人工智能在社会互动中的地位,但如何界定“我们中的一员”较模糊 |
这些不同的标准反映了对思考概念的不同理解。图灵更注重外在表现,塞尔强调内在的生物属性,而Rhees则从社会关系的角度出发。
接下来,我们通过一个流程图来梳理人工智能思考判断的过程:
graph TD
A[判断人工智能是否思考] --> B{是否符合图灵测试对话标准}
B -->|是| C{是否具备塞尔的具身和意向性}
B -->|否| D[可能不被认为能思考]
C -->|是| E{是否在社交网络中有合适角色}
C -->|否| D
E -->|是| F[可能被认为能思考]
E -->|否| D
从这个流程图可以看出,判断人工智能是否能思考是一个多维度的过程,需要综合考虑多个因素。
4. 道德变革与人工智能的关联
道德变革和人工智能看似是两个不同的领域,但实际上存在一定的关联。
一方面,道德变革的隐喻可以应用到对人工智能的思考中。例如,临界点隐喻可以类比到人工智能发展的某个阶段,当人工智能的某些行为或能力达到一定程度,引发人们对其道德地位和影响的重新评估。谈判桌隐喻可以理解为人类在与人工智能的互动中,思考如何平衡技术发展和道德责任。强线隐喻则提醒我们,在人工智能发展过程中,要保持基本的道德观念和价值观,即便技术不断变化,道德的核心不应被破坏。
另一方面,人工智能的发展也会对道德变革产生影响。随着人工智能在各个领域的应用越来越广泛,新的道德问题不断涌现,如隐私保护、算法偏见、责任归属等。这些问题促使人们重新审视和变革现有的道德观念和规范。
以下是人工智能发展引发的一些道德问题及其对应影响的列表:
-
隐私保护问题
:人工智能系统可能收集和分析大量个人数据,这可能侵犯个人隐私。例如,智能摄像头、语音助手等设备在不知不觉中收集用户信息。
-
算法偏见问题
:算法的设计和训练可能受到数据偏差的影响,导致对某些群体的不公平对待。比如,招聘算法可能因为历史数据的偏见而歧视某些性别或种族的求职者。
-
责任归属问题
:当人工智能系统做出决策或导致不良后果时,很难确定责任应由谁承担。是开发者、使用者还是人工智能本身?
5. 未来展望
综合上述对隐喻、道德变革和人工智能的讨论,我们可以对未来进行一些展望。
在道德变革方面,随着社会的发展和科技的进步,我们需要不断更新和完善道德观念。隐喻作为一种工具,可以帮助我们更好地理解和推动道德变革。我们应该鼓励人们从不同的角度思考道德问题,通过隐喻激发创造力和想象力,促进道德的进步。
在人工智能方面,虽然目前人工智能距离真正的智能还有很大差距,但技术的发展是不可阻挡的。我们需要在发展人工智能的同时,注重其道德和社会影响。建立健全的道德和法律规范,确保人工智能的发展符合人类的利益和价值观。
同时,我们也应该改变对人工智能的态度,不仅仅关注其内部设备和计算能力,更要关注其在社会关系中的角色和作用。通过促进人工智能与人类的良性互动,让人工智能更好地融入人类社会。
总之,隐喻、道德变革和人工智能是相互关联的领域,我们需要综合考虑它们的发展,以实现一个更加美好的未来。
超级会员免费看
59

被折叠的 条评论
为什么被折叠?



