对技术奇点的批判与人工智能发展的现实困境
1. 深度学习的发展与局限
深度学习近年来取得了显著进展,一些技术和工具的出现推动了其发展。比如,通过统计方法(如PCA)设置权重,不仅解决了一些问题,还显著加快了训练时间,使得训练更大、更复杂的网络模型成为可能。
随着时间推移,一系列深度学习框架逐渐成熟并广泛应用。2002年的Torch、2007年的Theano,尤其是2015年的TensorFlow,这些支持GPU的框架为深度学习的发展提供了强大助力。虽然Theano在2017年停止开发,Torch在2018年停止开发,但基于Torch的Python分支pyTorch截至2020年12月仍在积极开发中。其中,TensorFlow因其包含大量样本、预训练模型以及训练代码,且结合了易于学习的Python语言接口,变得非常受欢迎。从1.5版本开始,模型可以转换为TensorFlow Lite,以便在手机和树莓派等嵌入式平台上运行。这些框架大多采用宽松的许可证(如MIT或Apache 2.0),使得应用相应的学习算法变得更加简单,吸引了更多研究者使用深度学习,应用数量也随之增加。
然而,这并不意味着我们已经或即将实现人类水平的智能,即通用人工智能(AGI)。深度学习存在诸多局限性,使其无法等同于AGI。
首先,深度学习的训练算法创建的模型与人类智能的故障模式完全不同,且更加脆弱,像DeepFool和ColorFool等系统就充分证明了这一点。而且,像反向传播这样相对简单的学习算法,也很难想象会在人类大脑中实际使用,因为学习算法差异太大。此外,深度学习的神经系统模型基本还是基于感知机,并非生物学上合理的模型,存在以下诸多未解决的问题:
- 不清楚目标值如何在所有神
超级会员免费看
订阅专栏 解锁全文
34

被折叠的 条评论
为什么被折叠?



