深度学习:技术突破与智能升级
1. 深度学习基础技术
1.1 卷积神经网络(CNN)
卷积神经网络(CNN)由法国科学家 Yann LeCun 在 20 世纪 80 年代发现。如今,这类网络凭借众多神经层和大量数据取得了惊人成果。同样,让机器理解人类语言或进行语言翻译的技术,也依赖于被研究人员重新发掘并应用于深度学习范式的旧技术。不过,数据处理需要大量的处理周期,因此提升处理速度至关重要。
1.2 利用强大硬件
如今,大量数据的运用对算法性能起着关键作用。为处理海量数据,科学家们更多地使用 GPU 和计算机网络以快速获取答案。GPU 与并行计算(多台计算机集群并行运行)相结合,能创建更大的网络,并在更多数据上成功训练。实际上,GPU 执行某些操作的速度比 CPU 快 70 倍,可将神经网络的训练时间从数周缩短至数天甚至数小时。
GPU 是反向传播中强大的矩阵和向量计算单元,这些技术使神经网络的训练时间更短,也让更多人能够参与研究。神经网络可以从大量数据中学习,利用大数据(图像、文本、交易和社交媒体数据)创建性能不断提升的模型。
1.3 其他方面的投入
谷歌、脸书、微软和 IBM 等大公司自 2012 年起就开始收购相关公司并聘请深度学习领域的专家。例如 Geoffrey Hinton,他将反向传播算法应用于多层神经网络,现在为谷歌工作;Yann LeCun 是卷积神经网络的创造者,目前领导脸书的人工智能研究。
如今,人们不仅可以阅读解释深度学习原理的公开科学论文,还能使用创建深度学习网络的工具。早期,科学家们使用 C++ 等语言从头构建网络,但在低级语言中开发应用程序限
超级会员免费看
订阅专栏 解锁全文
3万+

被折叠的 条评论
为什么被折叠?



