今天算是真正学习深度学习-TensorFlow的第一天,大致了解了下深度学习、神经网络、TensorFlow等几个名词,个人的一点理解就是:神经网络是以一种仿生物学的算法,隐约记得研究生阶段很多课题是基于这种算法的,似乎很多是用于分类什么的,同时也衍生出了很多改进的或新的神经网络算法,比如RNN,DNN等等各种网络模型;TensorFlow是Google基于神经网络的构建的一套软件框架或者说软件库,可以很方便地让使用者快速构建和部署可用于实际问题的一种工具或一系列软件工具,构建网络模型,训练学习算法,评估算法等;深度学习可以说是人工智能的一种研究方向,属于机器学习的范畴,是由传统机器学习发展而来,硬件GPU的发展以及类似像TensorFlow这种便于深度学习部署的软件框架使得用于解决实际问题成为可能并快速发展。
另外,也接触到了关于TensorFlow的几个基本的要点:
1. 使用TensorFlow进行开发深度学习的应用基本有以下几个要素:
a. 数据集(训练集、测试集、验证集)
b. 网络模型定义
c. 训练/学习
d. 评估模型
2. 过拟合/欠拟合
欠拟合,此时算法学习到的数据规律较弱,有较差的预测效果。
过拟合,此时模型对训练集有较好的预测效果,但是因为其过度拟合于训练数据,所以对未见过的数据集有较差的预测效果,也就是我们通常说的低泛化能力。
过拟合问题可参考下面两篇文章(结合起来看比较好):
https://blog.youkuaiyun.com/qq_34218078/article/details/108892853
3. 损失函数
4. 激活函数
5. 梯度下降
6. 差平方函数、交叉熵函数
以上部分把内容是来源于其他文章并加上 一些个人的理解,不一定完全准确,欢迎批评指正!