深度神经网络:原理、历史与应用
1. 深度神经网络概述
深度神经网络(DNNs)是机器学习中众多数学模型和算法家族之一,在学术界和工业界的广泛应用中都表现出色。特别是在金融领域,越来越多的研究表明,DNNs有潜力减轻第四部分中某些应用所带来的计算负担。
DNNs的灵活性是其显著特点之一,这种灵活性源于一系列可调整的超参数。然而,这也带来了超参数优化的问题,这在训练机器学习算法时可能是最大的障碍。尽管存在这些挑战,但当这些问题得到解决时,DNNs的影响可能是巨大的。近年来,DNNs已成功应用于各种领域,如数据压缩、图像和语音识别、电影推荐、填充缺失数据、异常检测、信用评分和医疗诊断等。
2. 深度神经网络的历史
- 起源 :1943年,Warren McCulloch和Walter Pitts定义了第一个神经网络模型,他们基于生物神经元使用电路创建了这个模型。1957年,Frank Rosenblatt给出了第一个人工神经网络的例子,即感知机(Perceptron),最初用于图像识别。
- 感知机的兴衰 :感知机是一个二元分类器,起初看起来很有前途,但很快其局限性就显现出来。1969年,Marvin Minsky和Seymour Papert出版的《Perceptrons: An Introduction to Computational Geometry》证明了感知机甚至无法学习基本函数,这导致了人工智能领域在20世纪70年代和80年代的部分时间陷入低谷。
- 复兴 :直到20世纪90年代,随着
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



