深度学习:从理论到实践——构建和训练神经网络
1. 深度学习基础
深度学习是机器学习的一个子集,它依赖于深度神经网络,是现代人工智能的核心。通过深度学习,计算机能够识别图像中的物体、将文本和语音翻译成其他语言、生成艺术作品和音乐等,这些任务在几年前几乎是不可能完成的。
多层感知器是一种简单的神经网络,由多层神经元组成。每个神经元使用简单的数学公式将输入转换为输出。激活函数在数据通过各层时引入非线性变换,使神经网络能够适应各种数据集。输入层和输出层之间的隐藏层承担了大部分的计算工作,具有多个隐藏层的多层感知器被称为深度神经网络。
训练神经网络是通过迭代调整权重和偏差(相邻层神经元之间的连接权重以及分配给神经元本身的偏差),使网络适应数据集,以产生所需的输出。调整权重和偏差的反向传播过程是训练方案的核心。负责进行调整的组件是优化器,其最终目标是用尽可能少的反向传播次数找到权重和偏差的最优组合。
2. 构建神经网络的工具
当有合适的数据集时,机器学习并不困难,这得益于Scikit - Learn和ML.NET等库,它们将复杂的学习算法简化为几行代码。深度学习也不难,像Microsoft Cognitive Toolkit (CNTK)、Theano和PyTorch等库都提供了便利。不过,全球大多数人选择使用的构建神经网络的库是TensorFlow。
TensorFlow是谷歌创建的开源框架,于2015年在Apache License 2.0下发布。它不仅可以用于构建神经网络,还能使用张量(广义数组)进行大规模的快速数学运算。张量可以表示标量值(0维张量)、向量(1维张量)、矩阵(2维张量)等。神经网络本质上就是一个张量变换
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



