1,知识图谱理想上双层结构,实际单层
知识图谱是个双层结构。模式层和实例层,模式层,又称为本体层,模式层分成两个部分,一个是概念的上下层级,另一个是概念之间的关系层或者概念的自身属性信息层。前者规定了概念类之间的类关系,赋予了概念之间可以继承的特性,后者定义了不同类自身的属性和关系变体。严格意义上来说,知识图谱中的模式层对数据项的取值是有严格定义的,例如数据库中的各种数据类型(字符串型、float型、list型),但这种做法在工业界往往用不到,因为充分适应这种数据类型的规定是非常需要费时费力的。在很多人的认知里,知识图谱就是知识三元组,仅保留实例层,这是现实中的大现实,因为这来的快,拿来就用。表面上看起来很舒服,搞上面这一层太费脑筋,而且有太多业务知识,很多人办不到,尤其是焦虑的工业界。
2,知识图谱是可解释性,也是个灾难。
知识图谱=可解释性,这种论断被炒的很火,不能说对,也不能说错,标杆在于对可解释的定义。大体认为知识图谱是可解释的是沿袭了“眼见为实”的思维,即,我看到的实实在在的东西,可以形式化的显示性地表达出来时,我才认为我可以把一个问题解释给对此毫无背景的人听。也就是看重的是一种过程性的符号佐证,一种缺乏思考能力和基础知识却想掌握某一现象的人来说的。而深度学习中学习到的系数或值缺少实际的物理意义,从而被认为是不了解释的,因为缺乏形式化。如果我们认可了这样一种标杆,那么也自然成立,但这种成立性带来了巨大的灾难,即可解释性的数据荒灾难,为了支持一个既定的事实,背后需要大量的知识作为支撑,但现在的规模是远远不够的,几千亿,几万亿估计都不够。退回来说,这个知识的来源,人工编辑收集的方式很局限,不可面面俱到。基于抽取的方法可以海量的挖掘,撇开技术性能不说,海量挖掘的目的在于知识的曝光度,曝光才是抽取的前提,但有太多长尾的知识是压根不被报道或写出来的,换句话说,目前可以拿到的数据资源可能只是所有重要知识的百分之几,甚至千分之几,万分之几。所以,认定了知识图谱是通向可解释智能的路,那么这条路注定是个big problem.
3,认知需要层级性的动作性和实体性知识基础
知识图谱是认知智能的语义基石,基于知识图谱中所存储的知识,机器可以像人一样去进行知识应用,知识推理笔记看过很多博文的人都会有这种的认同感,这没有什么问题。认知,