知识表示中的模态逻辑与类别推理系统
1. 心智对象与模态逻辑
在已构建的智能体中,它们虽具备信念并能推导新信念,但缺乏关于信念和推导过程的知识。对自身知识和推理过程的了解,有助于控制推理。例如,当爱丽丝问“1764的平方根是多少”,鲍勃若回答“不知道”,在爱丽丝要求“再想想”时,鲍勃应意识到该问题可通过进一步思考解答;而若问题是“总统现在是否坐着”,鲍勃应明白深入思考可能无济于事。同时,了解其他智能体的知识也很重要,如鲍勃应知道总统知晓相关情况。
我们需要一个关于心智对象和心智过程的模型。智能体对心智对象有命题态度,如相信、知道、想要和告知等。然而,这些命题态度与普通谓词不同。以“Lois知道超人会飞”为例,逻辑表达为 Knows(Lois,CanFly(Superman)) ,这里存在一个小问题,即 CanFly(Superman) 通常被视为句子,而在此处是一个项,可通过将其具体化解决。更严重的问题是,若超人就是克拉克·肯特,按逻辑会得出Lois知道克拉克会飞,这与故事设定不符,因为Lois通常不知道克拉克就是超人。
(Superman = Clark)∧Knows(Lois,CanFly(Superman))
|= Knows(Lois,CanFly(Clark))
这是因为逻辑中存在等式推理,具有指称透明性,即逻辑使用的术语不重要,重要的是术语所指的对象。但对于相信和知道等命题态度,我们希望具有指称不透明性,因为并非所有智能体都知道哪些术语是共指的。虽然可以通过更多的具体化来解决,但会使句子变得冗长和笨拙。
超级会员免费看
订阅专栏 解锁全文
20万+

被折叠的 条评论
为什么被折叠?



