- 论文:Qwen2-VL: Enhancing Vision-Language Model’s Perception of the World at Any Resolution
- 🥰关注公众号 funNLPer 了解更多AI知识🤭
Qwen2-VL是Qwen-VL的改进版,主要改进点如下:
(1)引入动态分辨率机制,将不同大小分辨率的图片处理成不同数量的视觉 token,从而与人类的视觉感知相似,模型可以生成更加有效和准确的视觉表征
(2)使用多模态旋转位置编码 (M-RoPE),促进位置信息与文本、图像、视频等模态更加有效的融合
(3)使用统一的范式处理视频和图像,增强模型的视觉感知能力
Qwen2-VL相比Qwen-VL在视觉理解能力上更加强大,能够理解超过20分钟的长视频,并且支持多语言,除了中文和英文外还支持欧洲语言、韩语、日语等
2. 模型结构
Qwen2-VL 由视觉编码器和大语言模型两大部分组成。为了处理各种分辨率的视觉输入,实现了一个675M参数量的ViT