课程学习
lwz1120
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【课程笔记-李宏毅ML】支持向量机
什么是hinge loss?在二元分类中的loss functionsquare loss:sigmoid+square losssigmoid+cross entropyhinge losslinear SVM引入εn,slack variable,该值必须大于0,是放宽了y^nf(x)的下界,(软间隔??)这里是说,SVM的w就是样本点的线性组合,但注意到alph...原创 2020-02-24 16:39:24 · 236 阅读 · 0 评论 -
【课程笔记-李宏毅ML】transfer learning
模型微调目标领域的数据较少,例如在语音识别领域,可以通过source data来训练一个模型,然后使用target data的数据进行参数微调。需要注意target data很少,容易过拟合conservative training用source data训练的模型参数来初始化target data的模型,然后用target data的数据进行微调(GD的时候只更新几个epoch),但...原创 2020-02-23 15:14:44 · 440 阅读 · 0 评论 -
【课程笔记-李宏毅ML】Deep generative model
Deep generative model课件资料中文笔记overviewgenerative modelsPixelRNNVariational AutoencoderGenerative Adversarial NetworkPixelRNN每次生成一个pixelVAE和auto-encoder结构相似,但在code的地方有所不同对一个10维的数据,固定其中8维...原创 2020-02-15 22:29:42 · 789 阅读 · 0 评论
分享