说明
主要写下记录的一点儿笔记(以防白听啊!!)。由于他讲的是比较形象化的,所以记录时也是。
暂时只记录大纲:
第一堂
核心思想:大部分的机器学习问题都可以转换为优化问题。优化问题就可以用梯度下降进行求解。
这篇博客记录了2017年HIT暑期学校关于凸优化的课程要点,包括梯度下降法、投影梯度下降(PGD)及其收敛性证明,涉及Bregman divergence、subdifferential和Lipchitz连续性等概念。课程还探讨了PCA、Kmeans、随机梯度下降(SGD)及推荐的学习资源。
主要写下记录的一点儿笔记(以防白听啊!!)。由于他讲的是比较形象化的,所以记录时也是。
暂时只记录大纲:
核心思想:大部分的机器学习问题都可以转换为优化问题。优化问题就可以用梯度下降进行求解。

被折叠的 条评论
为什么被折叠?