- 博客(5)
- 收藏
- 关注
原创 李宏毅机器学习——卷积神经网络
Lecture 6 convolutional neural network(卷积神经网络)Image identification输入比如100*100的图像,三层,每层上数字代表深度,按100*100*3输入,如果输出维度是1000,那么如果全部考虑需要3*10^7,如何简化?convolution:原理:只根据图片的一小部分就能识别,比如鸟嘴,那么:选一个小区域(receptive field)只关注一个小范围有什么,receptive field可以有大有小,可以重叠,但是通常typic
2021-10-23 23:10:03
272
原创 李宏毅机器学习笔记4
Lecture 5 神经网络训练不起来(1)Training loss不再下降,怎么判断是local minimal还是saddle point(Local minimal不能再走,saddle point可以再降)先用tylor expansion把loss function在' 展开到二阶,一阶梯度为0,看hessian矩阵的正定负定Example:2. 如果是鞍点怎么继续优化呢?找到负的特征值,向对应的特征向量方向移动可以使loss function减小,但是..
2021-10-20 22:52:04
194
原创 李宏毅《机器学习》笔记3
Lecture 3 errorLecture 4 gradient decsent1. Tip1: turning learning rate1)图像法 2)Adaptive learning rateLr会随着迭代会变小,因为越来越靠近optimal最好不同参数有不同的参数有不同的lr2. Adagrad为什么要引入二阶导,一阶导越大,步长越大,二阶导大说整体曲线变化快,步长要小,为了解决跨参数问题。因为sigama...
2021-10-15 23:28:36
116
原创 李宏毅机器学习笔记
Lecture 2 回归Regression(模型假设)Single regressor Multi-regressor: like weighted averageLoss function(评估模型)有了训练集和a set of function,想要评估模型的好坏,建立损失函数L(f)=L(w,b)是functional最常见的是MSE,其他损失函数还有cross entropy挑选最好的f使L最小→gradent descent(只要L可微)Gradient descent
2021-10-13 23:46:16
152
原创 李宏毅《机器学习》学习笔记
lecture 11. 人工智慧是想要达成的目标,机器学习是达成目标的手段,深度学习是机器学习的一部分。机器学习:Looking for a function from data (speech recognition, image recognition, playing go, dialogue system…)2. Framework:机器学习步骤:Model (define a set of function) ,有训练资料(training data) →机器判断fn的好坏...
2021-10-11 20:49:03
404
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人