人工智能理解问题的深度探讨
1. 人工智能问题的辩论基础
在探讨人工智能(AI)问题时,我们首先需要确立辩论的基础和比较的性质。这可能涉及多个方面,比如是聚焦于物质 - 精神(大脑 - 思维)的二分法(McCulloch 和 Pitts),还是确定性机器与人类自由行动的不确定性之间的对比(Newell),亦或是机器是否能够真正理解(Searle),还是Dennett 更广泛的意向性概念,又或者是基于问题回答方式的图灵测试。我们不会在此尝试对这场辩论做出实质性贡献,更不用说全面解决问题,而是指出一种可能富有成效的新方向。接下来,我们将探讨两个辩论基础:Newell 在假设计算机和人类本质相同的情况下,对知识层面行为不确定性的解释;以及 Searle 的中文房间思想实验,他希望借此证明相反的观点。
2. Newell 的确定性与非确定性行为观点
Newell 在其 1982 年论文的后半部分指出,知识层面的行为具有不可预测性和不确定性,他以 Frank Stockton 的故事《美女还是老虎》为例;而符号层面的行为则是可预测和确定的,因为它由符号的机械处理组成。然而,为什么在符号层面和知识层面之间确定性会突然消失呢?
Newell 试图通过将知识定义为智能体思维中所有表示内容的逻辑闭包来解释这一现象。简单来说,由于这种逻辑闭包是无限的,在任何具体的决策情境中,智能体只能利用部分“知识”,因此我们只能通过查看智能体拥有的具体符号表示来预测它会使用哪部分知识。这意味着,要理解智能体在知识层面的行为,仅对智能体进行知识层面的描述是“极其不完整的”,必须结合一些符号层面的描述。
然而,Newell 的这一论点“相当难以理解”(Newell, 199
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



