Python环境搭建
Anaconda 搭建NumPython、Matplotilb
- 机器学习快速入门
学习算法-> 基于一定任务的学习
计算机基于某类任务其性能随着经验而自我完善。
学习的前提是要有潜在的规律 - 学习任务
学习不是任务的本身,而是获得执行任务的能力
– 分类 “识别”任务,分类别
– 回归 由已知数据预测未知
– 机器翻译
– 结构化输出
– 异常检测 离群数据
– 降噪
… - 性能度量
-量化指标
混淆矩阵
TP真正例:分类器预测正确真的 FN假反例:分类器把假当真
FP假正例:分类器把真当假 TN真反例:分类器预测正确假的
查准率P = TP/TP+FP
查全率R = TP/TP+FN
P与R犹如鱼与熊掌不可兼得,呈负相关,要根据实际的应用场景来选择
- 学习经验
监督学习(分类)与非监督学习(聚类)与半监督学习(强化学习) - 代价函数
-传统的机器学习都是针对凸集找最优解,而深度学习往往存在很多局部最优解
a.均方误差 (各预测值与其对应的真实值之差的平方,再求平均值)
b.极大似然估计 (最大的可能性) - 梯度下降法
-找到正确的方向(梯度)以合理的步长(学习率α)达到目的
= 批量梯度下降法
= 随机梯度下降法 - 过拟合和欠拟合
-首先要知道机器学学就是利用机器的泛化能力去求解未知的过程。
+简单的函数容易泛化,虽在过去表现不佳,但其在未来也不会表现太差的欠拟合,而复杂的函数往往在训练集上表现优异,但在测试数据上就会“聪明反被聪明误”的过拟合现象。
Everything should be made assimple as possible , but not simpler.

本文介绍了深度学习的基础知识,包括Python环境的搭建、监督与非监督学习、性能度量、梯度下降法以及前馈神经元。讨论了过拟合与欠拟合,正则化的概念,以及神经网络优化中的挑战,如局部最优、梯度问题。重点提到了前馈神经网络的结构和误差反向传播算法。
最低0.47元/天 解锁文章
36万+

被折叠的 条评论
为什么被折叠?



