多模态学习笔记

模型种类

Clip ViLT Blip

常见任务

分类任务
retrieval任务:retrieval的含义是检索的意思,该任务指的是从一组数据中检索出与给定查询最相关的信息
常见的数据集:VQAv2 NLVR2 Flickr30k MSCOCO

CLIP

Learning Transferable Visual Models From Natural Language Supervision
CLIP没有开源代码,但是开源了模型,即使开源代码,可能也没有公司能做到OPENAI公司那么大的数据集四亿个图片文字对的数据集。
什么是上游任务和下游任务?
什么是自回归
预训练方式,自回归和完形填空
对比学习是什么
混精度训练

图像和文本的输入分别通过 Image Encoder 和 Text Encoder 得到图像和文本的特征
其中 Image Encoder 可以是 ResNet 或 Vision Transformer,Text Encoder 可以是 CBOW 或 Text Transformer。

通过一个映射层映射层主要就是学习如何从单模态变到多模态,然后再做 L2 归一化,就得到了用来对比学习的特征代码相关重要问题,什么是交叉熵损失

读完感受:或许clip科研用于分类的检测,但对于缺陷的检测,并不是很适用

利用两个东西
1大规模的数据
2与下游任务无关的训练方式 task-agnostic web-scale pre-training
两种工具加持后nlp领域模型的效果特别好

jupyter 更改路径时遇到的问题

找到Jupyter Notebook的启动快捷方式,右键点击属性
将目标中的路径的最后面的%USERPROFILE%删掉,并按确认
键退出。亲测有用。

CLIP读代码

模型代码地址

https://github.com/openai/CLIP
点开后对应着看,先看readme文件

模型伪代码

# image_encoder - ResNet or Vision Transformer
# text_encoder - CBOW or Text Transformer
# I[n, h, w, c] - 输入图片维度
# T[n, l] - 输入文本维度,l表示序列长度

# W_i[d_i, d_e] - learned proj of image to embed
# W_t[d_t, d_e] - learned proj of text to embed
# t - learned temperature parameter

# 1 分别提取图像特征和文本特征
I_f = image_encoder(I) #[n, d_i]
T_f = text_encoder(T) #[n, d_t]

# 2 对两个特征进行线性投射,得到相同维度的特征d_e,并进行l2归一化,保持数据尺度的一致性
# 多模态embedding [n, d_e]
I_e = l2_normalize(np.dot(I_f, W_i), axis=1)
T_e = l2_normalize(np.dot(T_f, W_t), axis=1)

# 3计算缩放的余弦相似度:[n, n]
logits = np.dot(I_e, T_e.T) * np.exp(t)

# 4 symmetric loss function
labels = np.arange(n) #  对角线元素的labels
loss_i = cross_entropy_loss(logits, labels, axis=0) # image loss
loss_t = cross_entropy_loss(logits, labels, axis=1) # text loss
loss = (loss_i + loss_t)/2 # 对称式的目标函数


readme文件里,usage用法第二个框相当于对clip的一个简单测试,单独放在一个test文件里run一下就好了

import torch
import clip
from PIL import Image

device = "cuda" if torch.cuda.is_available() else "cpu"
model, preprocess = clip.load("ViT-B/32", device=device)

image = preprocess(Image.open("CLIP.png")).unsqueeze(0).to(device)
text = clip.tokenize(["a diagram", "a dog", "a cat"]).to(device)

with torch.no_grad():
    image_features = model.encode_image(image)
    text_features = model.encode_text(text)
    
    logits_per_image, logits_per_text = model(image, text)
    probs = logits_per_image.softmax(dim=-1).cpu().numpy()

print("Label probs:", probs)  # prints: [[0.9927937  0.00421068 0.00299572]]

零样本代码示例

下面的代码使用 CLIP 执行零样本预测,如论文的附录 B 所示。此示例从 CIFAR-100 数据集中获取图像,并预测数据集中 100 个文本标签中最可能的标签。

import os  # 导入os模块,用于文件和目录操作
import clip  # 导入CLIP库,用于多模态学习
import torch  # 导入PyTorch库,用于深度学习
from torchvision.datasets import CIFAR100  # 从torchvision库中导入CIFAR100数据集类

# 加载CLIP模型和预处理函数,指定设备为GPU或CPU
device = "cuda" if torch.cuda.is_available() else "cpu"
model, preprocess = clip.load('ViT-B/32', device)

# 下载CIFAR-100数据集的测试集,并将其存储在用户的缓存目录中
cifar100 = CIFAR100(root=os.path.expanduser("~/.cache"), download=True, train=False)

# 从CIFAR-100数据集中获取一个图像及其对应的类别ID
image, class_id = cifar100[3637]

# 对图像进行预处理,增加一个批次维度,并将其发送到GPU或CPU
image_input = preprocess(image).unsqueeze(0).to(device)

# 对CIFAR-100数据集中的所有类别名称进行分词处理,并将它们连接成一个张量,然后发送到GPU或CPU
text_inputs = torch.cat([clip.tokenize(f"a photo of a {c}") for c in cifar100.classes]).to(device)

# 对应伪代码中步骤1  使用torch.no_grad()上下文管理器,避免在推理过程中计算梯度
with torch.no_grad():
    # 使用CLIP模型的图像编码器将预处理后的图像编码成特征向量
    image_features = model.encode_image(image_input)
    # 使用CLIP模型的文本编码器将分词后的文本编码成特征向量
    text_features = model.encode_text(text_inputs)

# 对应伪代码步骤2 对图像特征和文本特征进行归一化处理
image_features /= image_features.norm(dim=-1, keepdim=True)
text_features /= text_features.norm(dim=-1, keepdim=True)

# 步骤3 计算图像特征和文本特征之间的相似度,并应用softmax函数将相似度转换为概率
similarity = (100.0 * image_features @ text_features.T).softmax(dim=-1)

# 从相似度概率中找出最高的五个值及其对应的索引
values, indices = similarity[0].topk(5)

# 打印标题
print("\nTop predictions:\n")

# 遍历相似度最高的五个值及其索引,并打印每个类别名称和对应的相似度百分比
for value, index in zip(values, indices):
    print(f"{cifar100.classes[index]:>16s}: {100 * value.item():.2f}%")

上段代码中数据集下载到了哪里?
os.path.expanduser(“~/.cache”) 这个函数调用会扩展为当前用户的主目录下的 .cache 文件夹。具体来说:

  1. ~ 符号代表当前用户的主目录,这在大多数操作系统中都是通用的。
  2. .cache 是主目录下的一个子目录,用于存放应用程序的缓存文件。
    所以,当你使用 os.path.expanduser(“~/.cache”) 作为 CIFAR100 数据集的 root 参数时,意味着你想要将 CIFAR-100 数据集的测试集下载并存储在你的主目录下的 .cache 文件夹中。

想要查看具体的路径,可以在Python中打印出来:

python
import os
cache_dir = os.path.expanduser("~/.cache")
print("Cache directory is:", cache_dir)

这将在你的控制台或终端中显示 .cache 文件夹的完整路径。

image_input = preprocess(image).unsqueeze(0).to(device) 是一个图像预处理的常见操作

  1. preprocess(image): 这个函数 preprocess 通常是一个自定义的函数,用于对图像进行预处理。预处理可能包括多种操作,如调整图像大小、归一化像素值、转换颜色空间等,以确保图像数据适合神经网络的输入要求。

  2. .unsqueeze(0): 这个方法是PyTorch中的一个操作,用于在指定的维度上增加一个大小为1的维度。在图像数据的上下文中,unsqueeze(0) 通常用于增加一个批次维度(batch dimension)。
    在PyTorch中,图像数据通常以 [channel, height, width] 的格式存储,其中 channel 是颜色通道数。增加一个批次维度后,数据的形状变为 [batch_size, channel, height, width]。即使只有一张图像,也会增加这个维度,使得数据的形状从 [channel, height, width] 变为 [1, channel, height, width]

  3. .to(device): 这个操作用于将数据移动到指定的硬件通常是gpu或cpu

对单个图像进行预处理,增加一个批次维度,然后将处理后的图像数据移动到指定的计算设备上。这是将图像数据准备为神经网络输入的典型步骤。

ViLT模型

训练时间和训练需求和clip比小了很多
模型基于pytorch lighting写的和pytorch还有所不同
论文硬件需求64个32g的V100Gpu训练三天左右

关键名词收录

1.视觉语言联合表征(Visual-Textual Joint Representation):

是一种技术:将视觉信息(如图像、视频)和语言信息(如文本、语音)嵌入到一个共享的表示空间中,以便让模型能够同时理解和处理这两种模态的数据。
目的:将图像和文本之间的语义关系对齐,从而实现跨模态的理解和任务处理。

2.visual embedder,textual embedder,和 modality interaction

三个模型后面简称VE ,TE和MI

  • VE :用于将视觉模态(如图像或视频)的输入数据转换为一个高维的嵌入向量(Embedding
    Vector)。这个嵌入向量是图像或视频的特征表示,用于捕捉视觉内容的语义信息。 通常使用深度学习模型(如卷积神经网络 CNN或视觉 Transformer, ViT)来提取视觉特征
  • TE:是一种模型或模块,用于将语言模态(如文本或句子)的输入数据转化为一个高维的嵌入向量。这个嵌入向量表示文本的语义信息。使用自然语言处理模型(如Transformer、BERT 或 GPT)来提取文本特征。
  • MI 视觉模态(如图像)和语言模态(如文本)之间的特征交互或融合。通过这种交互,模型可以理解两种模态之间的语义关系,比如图像和文本的对齐关系。

fine-tuning:微调

性能指标
  • R@1 (Recall at 1): 在模型预测的前1个结果中,如果正确的结果(或最相关的结果)包含在内,则认为模型达到了召回。R@1 指标衡量的是模型在最顶端预测中就能准确找到正确结果的能力。

  • R@5 (Recall at 5): 类似于 R@1,但这里考虑的是模型预测的前5个结果。如果正确的结果在这5个结果中,那么认为模型达到了召回。

  • R@10 (Recall at 10): 这个指标扩展到模型预测的前10个结果。如果正确的结果在这些结果中,那么认为模型达到了召回。

五级标题
六级标题

欢迎使用Markdown编辑器

你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。

新的改变

我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:

  1. 全新的界面设计 ,将会带来全新的写作体验;
  2. 在创作中心设置你喜爱的代码高亮样式,Markdown 将代码片显示选择的高亮样式 进行展示;
  3. 增加了 图片拖拽 功能,你可以将本地的图片直接拖拽到编辑区域直接展示;
  4. 全新的 KaTeX数学公式 语法;
  5. 增加了支持甘特图的mermaid语法1 功能;
  6. 增加了 多屏幕编辑 Markdown文章功能;
  7. 增加了 焦点写作模式、预览模式、简洁写作模式、左右区域同步滚轮设置 等功能,功能按钮位于编辑区域与预览区域中间;
  8. 增加了 检查列表 功能。

功能快捷键

撤销:Ctrl/Command + Z
重做:Ctrl/Command + Y
加粗:Ctrl/Command + B
斜体:Ctrl/Command + I
标题:Ctrl/Command + Shift + H
无序列表:Ctrl/Command + Shift + U
有序列表:Ctrl/Command + Shift + O
检查列表:Ctrl/Command + Shift + C
插入代码:Ctrl/Command + Shift + K
插入链接:Ctrl/Command + Shift + L
插入图片:Ctrl/Command + Shift + G
查找:Ctrl/Command + F
替换:Ctrl/Command + G

合理的创建标题,有助于目录的生成

直接输入1次#,并按下space后,将生成1级标题。
输入2次#,并按下space后,将生成2级标题。
以此类推,我们支持6级标题。有助于使用TOC语法后生成一个完美的目录。

如何改变文本的样式

强调文本

加粗文本 加粗文本

标记文本

删除文本

引用文本

H2O is是液体。

210 运算结果是 1024.

插入链接与图片

链接: link.

图片: Alt

带尺寸的图片: Alt

居中的图片: Alt

居中并且带尺寸的图片: Alt

当然,我们为了让用户更加便捷,我们增加了图片拖拽功能。

如何插入一段漂亮的代码片

博客设置页面,选择一款你喜欢的代码片高亮样式,下面展示同样高亮的 代码片.

// An highlighted block
var foo = 'bar';

生成一个适合你的列表

  • 项目
    • 项目
      • 项目
  1. 项目1
  2. 项目2
  3. 项目3
  • 计划任务
  • 完成任务

创建一个表格

一个简单的表格是这么创建的:

项目Value
电脑$1600
手机$12
导管$1

设定内容居中、居左、居右

使用:---------:居中
使用:----------居左
使用----------:居右

第一列第二列第三列
第一列文本居中第二列文本居右第三列文本居左

SmartyPants

SmartyPants将ASCII标点字符转换为“智能”印刷标点HTML实体。例如:

TYPEASCIIHTML
Single backticks'Isn't this fun?'‘Isn’t this fun?’
Quotes"Isn't this fun?"“Isn’t this fun?”
Dashes-- is en-dash, --- is em-dash– is en-dash, — is em-dash

创建一个自定义列表

Markdown
Text-to- HTML conversion tool
Authors
John
Luke

如何创建一个注脚

一个具有注脚的文本。2

注释也是必不可少的

Markdown将文本转换为 HTML

KaTeX数学公式

您可以使用渲染LaTeX数学表达式 KaTeX:

Gamma公式展示 Γ ( n ) = ( n − 1 ) ! ∀ n ∈ N \Gamma(n) = (n-1)!\quad\forall n\in\mathbb N Γ(n)=(n1)!nN 是通过欧拉积分

Γ ( z ) = ∫ 0 ∞ t z − 1 e − t d t   . \Gamma(z) = \int_0^\infty t^{z-1}e^{-t}dt\,. Γ(z)=0tz1etdt.

你可以找到更多关于的信息 LaTeX 数学表达式here.

新的甘特图功能,丰富你的文章

2014-01-07 2014-01-09 2014-01-11 2014-01-13 2014-01-15 2014-01-17 2014-01-19 2014-01-21 已完成 进行中 计划一 计划二 现有任务 Adding GANTT diagram functionality to mermaid
  • 关于 甘特图 语法,参考 这儿,

UML 图表

可以使用UML图表进行渲染。 Mermaid. 例如下面产生的一个序列图:

张三 李四 王五 你好!李四, 最近怎么样? 你最近怎么样,王五? 我很好,谢谢! 我很好,谢谢! 李四想了很长时间, 文字太长了 不适合放在一行. 打量着王五... 很好... 王五, 你怎么样? 张三 李四 王五

这将产生一个流程图。:

链接
长方形
圆角长方形
菱形
  • 关于 Mermaid 语法,参考 这儿,

FLowchart流程图

我们依旧会支持flowchart的流程图:

Created with Raphaël 2.3.0 开始 我的操作 确认? 结束 yes no
  • 关于 Flowchart流程图 语法,参考 这儿.

导出与导入

导出

如果你想尝试使用此编辑器, 你可以在此篇文章任意编辑。当你完成了一篇文章的写作, 在上方工具栏找到 文章导出 ,生成一个.md文件或者.html文件进行本地保存。

导入

如果你想加载一篇你写过的.md文件,在上方工具栏可以选择导入功能进行对应扩展名的文件导入,
继续你的创作。


  1. mermaid语法说明 ↩︎

  2. 注脚的解释 ↩︎

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值