qwenvl 以及qwenvl 2 模型架构理解

qwenvl 模型理解:

  • 参考资料:
    https://qwenlm.github.io/zh/blog/qwen2-vl/
    https://github.com/QwenLM/Qwen2-VL?tab=readme-ov-file
    https://qwenlm.github.io/zh/blog/qwen2-vl/

  • 论文:
    qwenvl https://arxiv.org/abs/2308.12966
    Qwen2-VL https://arxiv.org/pdf/2409.12191

最近正好在做qwenvl 总结记录一下qwenvl 以及qwenvl2模型的架构,本文主要聚焦模型架构和训练技术,其他内容后面有涉及再补

注意:要了解qwenvl 2需要先理解qwenvl ,因为qwenvl 2文章明确提到qwenvl 2的架构是和qwenvl保持一致的

由于我主要关注模型架构,因此读论文的时候读完摘要直接看model architecture

qwenvl

架构图

在这里插入图片描述

qwenvl架构很简单,就是三个部分:

  • QwenLM: 作为Qwen-VL模型的基础组件,这个部分采用了一个大型语言模型,其初始权重来自于预训练的Qwen-7B模型。
    如果大家看一下代码的话,这个模型的结构和经典的llamma等大模型没什么区别

  • ViT

### Qwen VL-7B 模型本地部署教程 #### 准备工作环境 为了成功部署Qwen VL-7B模型,需先准备合适的工作环境。这包括安装必要的依赖库以及配置Docker环境。 对于依赖库的安装,可以参考官方文档或其他资源来获取最新的指导说明[^4]。通常情况下,Python版本建议不低于3.8,并且要确保pip是最新的以便顺利安装所需的软件包。 关于Docker环境的设置,在大多数Linux发行版上可以通过命令行工具轻松完成;而对于Windows或MacOS用户,则推荐使用Docker Desktop来进行图形化操作。确认已正确设置了Docker之后,就可以继续下一步骤了。 #### 下载并构建镜像 利用Git LFS克隆仓库中的项目源码是一个不错的选择: ```bash git lfs install git clone https://www.modelscope.cn/qwen/Qwen2-VL-7B-Instruct.git cd Qwen2-VL-7B-Instruct/ ``` 接着按照README.md内的指示创建自定义化的Dockerfile文件用于定制化自己的运行时环境。完成后执行如下指令以基于此Dockerfile建立一个新的docker镜像: ```bash docker build -t qwen-vl:latest . ``` #### 启动容器实例 当上述步骤都顺利完成以后,便可以用下面这条命令启动一个新容器实例: ```bash docker run \ --gpus all \ -p 8090:8090 \ -v /path/to/local/model:/data/shared/Qwen/ \ --name=qwen-container \ -itd qwen-vl:latest ``` 这里`--gpus all`选项允许GPU加速计算(如果硬件条件允许的话),而端口映射部分则是为了让外部能够访问到内部服务。另外需要注意的是路径挂载参数 `-v` ,它指定了宿主机上的某个目录作为共享存储空间给容器内程序读取模型权重等重要资料之用。 #### 设置与验证 进入正在运行着的目标容器后,可以根据实际情况调整一些初始化脚本里的变量设定,比如最大图片数量限制(`image=5`) 或者是具体使用的模型名 (`qwen2-vl:7b`) 。这些都可以通过修改相应的配置项实现个性化需求满足[^2]。 最后一步就是测试整个系统的正常运作状况啦!尝试发送请求至API接口看看能否得到预期的结果反馈吧! ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值