机器学习学习笔记
phily123
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习笔记之变分推断
为了求解隐变量z在观测变量x的条件概率,根据p(z|x)=p(x,z)/p(x),又因为p(x)很难求出,所以可以通过拟合q(z)与p(z|x)的分布来近似求出p(z|x),通过最小化q(z)与p(z|x)的KL散度来求出q(z)的分布。原创 2022-12-08 15:17:04 · 427 阅读 · 1 评论 -
机器学习学习笔记——batchsize越大越好?
batchsize不是越大越好 使用mini-batch好处: 提高了运行效率,相比batch-GD的每个epoch只更新一次参数,使用mini-batch可以在一个epoch中多次更新参数,加速收敛。 解决了某些任务中,训练集过大,无法一次性读入内存的问题。 虽然第一点是mini-batch提出的最初始的原因,但是后来人们发现,使用mini-batch还有个好处,即每次更新时由于没有使用全量数据而仅仅使用batch内数据,从而人为给训练带来了噪声,而这个操作却往往能够带领算法走出局部最优(鞍点)。理论证明原创 2021-04-06 17:19:26 · 1048 阅读 · 0 评论 -
L1与L2范数
L1范数与L2范数定义及在机器学习中的应用,L2loss作为损失函数 资料链接转载 2021-04-06 13:45:56 · 167 阅读 · 0 评论 -
机器学习笔记——损失函数MSE和cross_entropy推导
一、MSE 对于线性回归问题,原创 2021-06-03 15:29:41 · 525 阅读 · 0 评论
分享