课程学习
lwz1120
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【课程笔记-李宏毅ML】支持向量机
什么是hinge loss? 在二元分类中的loss function square loss: sigmoid+square loss sigmoid+cross entropy hinge loss linear SVM 引入εn,slack variable,该值必须大于0,是放宽了y^nf(x)的下界,(软间隔??) 这里是说,SVM的w就是样本点的线性组合,但注意到alph...原创 2020-02-24 16:39:24 · 220 阅读 · 0 评论 -
【课程笔记-李宏毅ML】transfer learning
模型微调 目标领域的数据较少,例如在语音识别领域,可以通过source data来训练一个模型,然后使用target data的数据进行参数微调。 需要注意target data很少,容易过拟合 conservative training 用source data训练的模型参数来初始化target data的模型,然后用target data的数据进行微调(GD的时候只更新几个epoch),但...原创 2020-02-23 15:14:44 · 424 阅读 · 0 评论 -
【课程笔记-李宏毅ML】Deep generative model
Deep generative model 课件资料 中文笔记 overview generative models PixelRNN Variational Autoencoder Generative Adversarial Network PixelRNN 每次生成一个pixel VAE 和auto-encoder结构相似,但在code的地方有所不同 对一个10维的数据,固定其中8维...原创 2020-02-15 22:29:42 · 486 阅读 · 0 评论
分享