28、计算机视觉技术实战:从ViT到SAM与FastSAM

计算机视觉技术实战:从ViT到SAM与FastSAM

1. Hugging Face ViT注意力分数可视化

在计算机视觉领域,理解模型对图像的关注点至关重要。Hugging Face的ViT(Vision Transformer)模型为我们提供了一种强大的工具来实现这一目标。以下是使用Python 3.9实现ViT注意力分数可视化的代码:

from PIL import Image 
import torch.nn as nn
import torch.nn.functional as F
import matplotlib.pyplot as plt
from transformers import ViTImageProcessor
from transformers import ViTModel

model_name = "facebook/dino-vits8" 
model = ViTModel.from_pretrained(model_name, add_pooling_layer=False) 
feature_extractor = ViTImageProcessor.from_pretrained(model_name, size=480) 
image = Image.open('d:/robin.jpg') 

# Using the pre-trained ViT model to get attention scores
input = feature_extractor(images=image, return_tensors='pt').pixel_values 
outputs = model(in
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值