(一) AIGC了解+前置知识

大论文双盲意见还没回来,每天度日如年,慌的一批,唯恐延毕,得找点事情干~
小论文major revision,本来打算一鼓作气把小论文完全改好的,但是搞了三个月的文字工作,好久没有吸收新知识了
所以…每天边学新东西,边改小论文~
最近AIGC比较火,就从它开始吧

AIGC大致了解

AIGC大致了解:
https://zhuanlan.zhihu.com/p/607822576

AIGC白皮书(2022年)
腾讯 :https://www.aliyundrive.com/s/7qESbn8X5ZU
京东 : https://www.aliyundrive.com/s/gThYTCKfqgw

论文推荐
https://zhuanlan.zhihu.com/p/610435858

一些小工具
https://www.aigc.cn/

AIGC前置知识

Transformer

论文 : https://arxiv.org/abs/1706.03762

  1. Transformer模型详解(图解最完整版) https://zhuanlan.zhihu.com/p/338817680
    引申 :
    LayerNorm : https://zhuanlan.zhihu.com/p/54530247
    Seq2Seq-- Teacher Forcing : https://zhuanlan.zhihu.com/p/57155059

Vision-Transformer

结论先行:
ViT原论文中最核心的结论是,当拥有足够多的数据进行预训练的时候,ViT的表现就会超过CNN,突破transformer缺少归纳偏置的限制,可以在下游任务中获得较好的迁移效果
知乎 : https://zhuanlan.zhihu.com/p/445122996

BERT

https://www.bilibili.com/read/cv14514000?spm_id_from=333.999.0.0&jump_opus=1

预训练 - 思路来源于CV领域的权重迁移
减少low level的训练
第一个在NLP领域做的很大的网络

GPT系列

https://zhuanlan.zhihu.com/p/125139937

https://zhuanlan.zhihu.com/p/412351920

变分自编码器

VAE https://zhuanlan.zhihu.com/p/563543020

扩散模型

DDPM https://zhuanlan.zhihu.com/p/590840909

Diffusion https://zhuanlan.zhihu.com/p/599887666

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ray Song

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值