
李宏毅ML2021
文章平均质量分 60
芦边湖泊
这个作者很懒,什么都没留下…
展开
-
李宏毅 ML2021 学习笔记 - W7 Self-supervised Learning
1. BERT1. How to use BERT都需要一些labled dataCase 3:NLI (Natural Language Inference)实做上,bert不能吃无限长度的输入,大概最长512左右。2. Training BERT is challenging3. Why does BERT work?前5个果是水果的果,后5个是苹果电脑的果,计算它们embedding的cosine similarity...原创 2021-07-15 20:06:57 · 239 阅读 · 0 评论 -
李宏毅 ML2021 学习笔记 - W6 Generative Model
1. 生成式对抗网络1. Network as Generator1.1.为什么需要输入一个分布?1.2. Unconditional generationgenerator把一个简单的distribution对应到一个复杂的distribution2. Theory behind GAN2.1. Objective找一个Generator,使得生成数据的分布与目标数据的分布越接近越好2.2. 如何计算两个distribution之间的divergen..原创 2021-07-15 14:52:36 · 322 阅读 · 0 评论 -
李宏毅 ML2021 学习笔记 - W5
1. TransformerSequence-to-Sequenct (Seq2seq): input a sequence,output a sequence,输出长度由机器决定。e.g 语音识别,机器翻译,语音翻译1. Encoder1.1. 网络架构每个block更为具体的架构:1.2. to learn more2. Decoder12...原创 2021-07-09 14:55:30 · 216 阅读 · 0 评论 -
李宏毅 ML2021 学习笔记 - W3
1. CNNCNN 不能解决scaling 和 rotation(→ data augmentation)→ spatial transformer layer2. Self-Attentionself-attention可以叠加:2.1.self-attention运作过程计算两个vector的relevance α:不一定要用softmax,其他activation function也可以,e.g. relu2.2. 矩阵角度2..原创 2021-07-05 17:42:56 · 207 阅读 · 0 评论 -
李宏毅 ML2021 学习笔记 - W2
1. General Guide1.2原创 2021-07-04 14:49:43 · 391 阅读 · 0 评论