- 博客(5)
- 收藏
- 关注
原创 CoCoOp - CLIP 自适应Prompt工程 【二】
CLIP多模态大模型 在 Prompt工程 的改进型工作: CoCoOp的原理 & 实现代码 & 优化方向 & 解决的问题
2024-02-16 12:01:01
1978
1
原创 CoOp - CLIP 自适应Prompt工程 【一】
CLIP多模态大模型 在 Prompt Engineering(提示工程)上的工作: CoOp 模型的原理 & 效果简介。 为何称之为自适应Prompt,以及他的瓶颈是什么
2024-02-12 17:05:18
2431
6
原创 【大模型】萌新也能一文弄懂!! -- 连接图像文本的大模型CLIP的前世今生【三】
CLIP 的科普系列最后一期, 讲了 CLIp的 训练 & 效果 & 展望,以及相关的一些衍生和学术工作等。
2024-01-29 10:30:00
1463
原创 【大模型】萌新也能一文弄懂!! -- 连接图像文本的大模型CLIP的前世今生【二】
由3.1 和 3.2 的 前置知识,我们便知道了 CLIP的文本塔模型 其实是由 Google 的两个经典开创性任务: Transformer 和 BERT 衍生出来的,那最后 文本塔的 RoBERTa 模型, 其实也就是由他们做了微小改变而成的。RoBerta ()又是 Bert的一个变体。在 模型整体架构没有改变的时候,做了一些相关的微调[1] 参数量扩大, BERT 使用解决 3.3亿 token, RoBerta 利用 16亿 token.
2024-01-02 10:00:00
1392
原创 【大模型】萌新也能一文弄懂!! -- 连接图像文本的大模型CLIP的前世今生【一】
本文以分享&科普的 形势,分成三部分介绍 对比式多模态大模型CLIP的前世今生,基本概念,涉及到一些基础前置知识的科普[BERT & Transformer & VIT 等] ; 同时与 目前最火的 生成式大模型 [AIGC & LLM] 等相比, 在训练数据 & 语料来源 & 数据量 & 参数量之间的差异。 供大家欣赏。
2023-12-24 20:17:14
1447
2
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人