(十三)关于InternVL2.5的模型训练效果——自定义数据集的训练效果InternVL2.5与InternVL2.0对比

(十三)关于InternVL2.5的模型训练效果——自定义数据集的训练效果InternVL2.5与InternVL2.0对比


前言

本章节紧接前一章节的内容,前一章节介绍了InternVL2.5的训练方法,包括了官方提供的InternVL2.5相对于InternVL2.0的提升对比信息、InternVL2.0训练方法的结论验证以及如何训练InternVL2.5。本章节主要就是将上一节的训练结果进行展示并且与之前InternVL2.0相比较,内容量会比较少,下面来看看具体的数据结果吧。


一、InternVL2.0与InternVL2.5推理数据对比

说明
本次训练InternVL2.5所使用的训练数据、测试数据完全一样,包括训练策略也与之前章节《(五)关于InternVL2的模型训练二(如何训练目标定位模型)》一致。唯一有所不同的就是上一章节提到的,虽然InternVL2.5的存储大小相比InternVL2.0更小,但训练所需的显存更大,导致之前8批次训练的只能4批次训练。

InternVL2.0:
一共11518张图片,包括60个标签,每个标签数据量不一,从140到210不等。通过计算混淆矩阵得出每个类

### 关于 InternVL 2.5 的论文和技术文档 InternVL 2.5 是由上海 AI 实验室的 OpenGVLab 团队推出的一款开源多模态大语言模型,其技术细节和研究成果通常会通过学术论文的形式发布。根据已知的信息,可以推测 InternVL 2.5 的相关论文可能涵盖了以下几个方面的内容: 1. **模型架构改进** InternVL 2.5 基于 InternVL 2.0 进行了显著增强,在训练策略、测试方法以及数据质量等方面都有所提升[^1]。 2. **性能边界扩展** 论文中提到,InternVL 2.5 致力于拓展开源多模态模型的性能边界,尽管某些闭源商业模型相比仍存在差距,但在特定领域已经取得了重要进展[^2]。 3. **资源获取途径** 对于具体的论文下载或技术文档访问,建议参考以下方式: - 官方网站:OpenGVLab 提供的技术博客或项目主页可能会链接至最新的研究论文。 - 开源平台:GitHub 上的相关仓库通常附带详细的 README 文件,其中包含论文链接或其他参考资料。 - 学术数据库:如 arXiv, ACL Anthology 等平台上搜索关键词 “InternVL 2.5”,可找到对应的预印本或正式发表版本。 以下是基于 Python 编写的简单脚本,用于自动化检索论文链接(需安装必要的库): ```python import requests from bs4 import BeautifulSoup def search_paper(keyword): base_url = f"https://arxiv.org/search/?query={keyword}&searchtype=all" response = requests.get(base_url) soup = BeautifulSoup(response.text, 'html.parser') results = [] for item in soup.select('.list-article'): title = item.find('p', class_='title').text.strip() link = "https://arxiv.org" + item.find('a')['href'] results.append((title, link)) return results[:5] papers = search_paper("InternVL 2.5") for i, (title, url) in enumerate(papers, start=1): print(f"{i}. {title}\n{url}") ``` 此代码片段可以帮助快速定位关于 InternVL 2.5 的最新研究动态。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值