ModelScope(魔搭)团队发布Nexus-Gen V2,一个同时支持图像理解、生成和编辑的统一模型,而且模型权重、训练流程和数据集全部开源。
VLM和扩散模型被整合到一起了。
ModelScope(魔搭)团队发布Nexus-Gen V2,一个同时支持图像理解、生成和编辑的统一模型,而且模型权重、训练流程和数据集全部开源。
这事儿有多重要?今年以来,GPT-4o-Image、Gemini、Blip3O这些大厂的统一模型都在证明一件事:把图像理解和生成能力塞进一个模型,不仅仅是为了省事,更是因为两种任务的有机结合能带来意想不到的效果。
魔搭团队其实早在五月就发布了V1版本,但他们很快发现了问题:图像理解能力相比原始VLM掉点严重,图像生成对提示词太敏感,编辑细节也保持不好。
于是他们憋了几个月大招,从三个方向全面优化,终于拿出了这个V2版本。

在图像理解上,优化了模型的训练策略,极大程度地保留了VLM的理解能力;
在图像生成上,对所有图像生成样本进行了重标注,采用长短描述同时标注并采样选取的策略,提升了图像生成的鲁棒性,同时加入了中文标注样本,支持了基于中文的图像生成。
在图像编辑上,团队系统性地研究了图像重建效果与图像编码token数量之间的关系,并设计了全新的编辑方案。经过以上优化,Nexus-Gen V2达到了第一梯队统一模型的水平,模型的模型权重和全链路训练流程全部开源。
此外,Nexus-Gen V2使用2600万样本进行训练,包括580万图像理解、1330万图像生成和630万图像编辑样本,这个大规模数据集已经在ModelScope主站上开源。
Nexus-GenV2模型的图像编辑和生成可视化效果下:

△图1 Nexus-Gen 图像生成效果

△图2 Nexus-Gen 图像编辑效果
模型架构设计
Nexus-Gen V2沿用了V1的模型架构设计,如图3 a所示,其核心是将扩散模型作为自回归语言模型(Autoregressive Model)的视觉解码器(Vision Decoder),并使用一个统一的图像编码空间(Image Embedding Space)来连接两者,并统一建模图像理解、生成和编辑任务。
输入图像由视觉编码器(Vision Encoder)编码到统一编码空间中,由自回归模型处理。自回归模型使用预填充自回归策略预测输出图像在编码空间的特征向量,然后由视觉解码器解码为输出图像。

最低0.47元/天 解锁文章

1338

被折叠的 条评论
为什么被折叠?



