
李宏毅2020机器学习笔记
文章平均质量分 94
记录李宏毅老师课堂学习笔记,记录点滴生活。
爱弹代码的吉他手
这个作者很懒,什么都没留下…
展开
-
GCN学习笔记
目录Contents图卷积网络(Graph Neural Networks)1. 引言(Introduction)2. 图的基础知识(Basic Theory)3. 频域图卷积(Spectral Convolution)3.1 拉普拉斯矩阵分解(Laplacian Matrix Decomposition)3.2 图的傅里叶变换(Graph Fourier Transform)3.3 图卷积之Spectral GCN3.4 图卷积之Chebyshev GCN3.5 图卷积之GCN4. 空间域图卷积(Spat原创 2021-08-19 18:09:30 · 647 阅读 · 0 评论 -
CNN学习笔记
目录ContentsCNN(Convolutional Neural Network)1. 引言(Introduction)2. 为什么使用CNN(Why CNN?)3. CNN组成模块(CNN Module)3.1 卷积层(Convolutional Layer)3.1.1 一般卷积(Normal Conv)3.1.2 扩张卷积(Padding Conv)3.1.3 转置卷积(Transpose Conv)3.1.4 可分离卷积(Separable Conv)3.1.5 空间卷积(3D Conv)3.1.原创 2021-08-11 10:46:42 · 711 阅读 · 0 评论 -
Why Deep笔记
目录ContentsWhy Deep?1. 前言(Introduction)2. 模型拟合(Model Fit)3.参数结构(Parameters Structure)4. 功能模块(Function Model)5. 总结(Conclusion)版权声明参考资料(Reference) Why Deep? 本文是笔者关于机器学习中神经网络关于网络深度与广度的一个思考,同时也涉及了一些网络的可解释性的内容。本文只是笔者对于神经网络的浅薄认识,如有错误,欢迎指出,共同进步。 1. 前言(Introducti原创 2021-08-09 23:10:29 · 296 阅读 · 0 评论 -
优化器学习笔记
目录ContentsOptimizer1. 前言(Introduction)2. 优化器(Optimizer)2.1 梯度下降(Gradient Descent,GD)2.2 批量梯度下降(Batch Gradient Descent,BGD)2.3 随机梯度下降(Stochastic Gradient Descent, SGD)2.4 小批量梯度下降(Mini-Batch Stocha Gradient Descent)2.5 动量梯度下降(SGD with Momentum, SGDM)2.6 Nest原创 2021-08-07 16:58:58 · 174 阅读 · 0 评论 -
回归函数学习笔记
目录ContentsRegression1.前言(Introduction)2.基本原理(Principle)3.建模(Model)4.模型评价(Model Estimation)5.模型修正(Model Modify)6.模型误差来源(Source of Model Error)7.总结(Conclusion)8.参考资料(Reference) Regression 本文是笔者对机器学习中碰到的回归方法的一个总结,主要参考了网上的一些资料与李宏毅老师的视频。本文只是笔者对于回归问题的浅薄认识,如有错误,原创 2021-08-06 13:21:35 · 1347 阅读 · 0 评论