学习的奥秘:人脑与机器的较量
学习的关键:简化模型与先验假设
在学习领域,机器若仅能识别已见过的图片或赢得已玩过的围棋局,意义不大。真正的目标是无论情况熟悉与否,都能识别任何图片、战胜任何对手。计算机科学家为此探索了多种解决方案,其中简化模型是加速学习和提高泛化能力的有效方法。当需调整的参数数量减至最少时,系统会被迫寻找更通用的解决方案。
Yann LeCun受此启发发明了卷积神经网络(Convolutional Neural Networks),这在图像识别领域已广泛应用。其原理简单,为识别图片中的物品,可在各处应用相同算法。比如识别照片中的人脸,无需为视网膜上的每个点学习不同模型,一处学到的知识可在其他地方复用。在学习过程中,卷积神经网络将从给定区域学到的知识应用于整个网络,减少了需学习的参数数量,从而提高性能,尤其是对新图像的泛化能力,还加快了学习速度。
这一技巧还可推广到其他领域,如语音识别。通过让神经网络在不同频段使用相同连接,忽略说话者声音的具体特征,减少需调整的参数,可提高速度和对新声音的泛化能力,这也是智能手机能响应语音的原因。
学习是投射先验假设,Yann LeCun的策略体现了对先天知识的利用。卷积神经网络学习更好更快,是因为它并非学习所有内容,其架构中融入了“一处所学可推广至各处”的假设。图像识别的主要问题是不变性,卷积网络通过在各处复制相同算法,利用了这一约束,将其融入自身结构。
实际上,自然与后天培养并非对立。纯粹的、无任何先天约束的学习并不存在,任何学习算法都包含对学习领域的一组假设。依靠先验假设并将其融入系统架构,比从头学起更有效。例如AlphaGo Zero软件,其初始表示包含了游戏的地形和对称性知识,缩小了
超级会员免费看
订阅专栏 解锁全文
8万+

被折叠的 条评论
为什么被折叠?



