全球排名第五,国内排名第一

 Datawhale报告 

作者:赵越,State-of-Datawhale项目

在2025年5-7月,Datawhale迎来了“爆炸性”的增长,共增长31861颗star,是Github所有同类型组织中涨幅最高的一个,全球排名前进11名,来到了53名,成为同类组织全球排名第5,国内排名第1的开源学习社区。

高速增长的背后原因

组织内star数涨幅靠前的项目均为大模型相关的项目,happy-llm直接刷新了Datawhale最快突破10000颗Star的记录,仅仅用了两个月的时间就增长了13000+颗Star!self-llm也迎来了一波新的爆发,共上涨6000+颗star,llm-universe,llm-cookbook,easy-rl这些优秀的仓库仍然保持了很优秀的star涨幅。

下面这个视频动态展示了2025年5-7月我们Datawhale中Star数超过1000的项目的Star增长情况:

增速最快的5个开源项目

组织内Star数涨幅靠前的项目均为大模型相关的项目,下面会选择在2025年5-7月中增长Star数最多的5个项目进行分析。

下图展示了今年Datawhale中Star数超过1000的项目的Star增长数:

贡献者列表:

数据源:

1. https://gitstar-ranking.com/organizations

2. https://star-history.com/

3. https://github.com/datawhalechina

图片

一起“赞”三连

## 软件功能详细介绍 1. **文本片段管理**:可以添加、编辑、删除常用文本片段,方便快速调用 2. **分组管理**:支持创建多个分组,不同类型的文本片段可以分类存储 3. **热键绑定**:为每个文本片段绑定自定义热键,实现一键粘贴 4. **窗口置顶**:支持窗口置顶功能,方便在其他应用程序上直接使用 5. **自动隐藏**:可以设置自动隐藏,减少桌面占用空间 6. **数据持久化**:所有配置和文本片段会自动保存,下次启动时自动加载 ## 软件使用技巧说明 1. **快速添加文本**:在文本输入框中输入内容后,点击"添加内容"按钮即可快速添加 2. **批量管理**:可以同时编辑多个文本片段,提高管理效率 3. **热键冲突处理**:如果设置的热键与系统或其他软件冲突,会自动提示 4. **分组切换**:使用分组按钮可以快速切换不同类别的文本片段 5. **文本格式化**:支持在文本片段中使用换行符和制表符等格式 ## 软件操作方法指南 1. **启动软件**:双击"大飞哥软件自习室——快捷粘贴工具.exe"文件即可启动 2. **添加文本片段**: - 在主界面的文本输入框中输入要保存的内容 - 点击"添加内容"按钮 - 在弹出的对话框中设置热键和分组 - 点击"确定"保存 3. **使用热键粘贴**: - 确保软件处于运行状态 - 在需要粘贴的位置按下设置的热键 - 文本片段会自动粘贴到当前位置 4. **编辑文本片段**: - 选中要编辑的文本片段 - 点击"编辑"按钮 - 修改内容或热键设置 - 点击"确定"保存修改 5. **删除文本片段**: - 选中要删除的文本片段 - 点击"删除"按钮 - 在确认对话框中点击"确定"即可删除
<think>好的,用户想了解全球大模型的排名情况。首先,我需要回顾一下系统级指令,确保回答符合格式要求,比如行内数学公式用$...$,独立公式用$$...$$,同时用中文回答,还要生成相关问题。然后,用户提到了几个引用,我需要结合这些引用中的信息来组织答案。 首先,引用[1]提到GPT-4-Turbo排名第一,接下来是GPT-4o。引用[2]则说明排行榜的依据包括参数规模、数据质量、力等指标,并参考了Chatbot Arena榜单。引用[3]重点介绍了通义Qwen在开源模型中的领先地位,特别是在多个评测中的表现。引用[4]讨论了国内大模型的进展和关键因素。 接下来,我需要将这些信息整合成一个结构清晰的回答。可能需要分几个部分:主流商业模型排名、开源模型排名、评测指标、国内模型的表现。每个部分要引用对应的引用来源,并在末尾添加引用标识。同时,确保使用正确的LaTeX格式,虽然这里可能不太需要数学公式,但如果有提到的模型参数或数据指标,可能需要用到行内公式,比如参数规模$10^{12}$。 然后生成相关问题,这些问题需要与用户的问题相关,可能包括评测指标、模型对比、开源模型优势、国内模型情况以及商业与开源模型的区别。确保问题覆盖用户可能感兴趣的各个方面。 最后检查LaTeX语法是否正确,是否有遗漏的引用,以及是否符合中文回答的要求。同时确保生成的问题合理且能够引导用户进一步探索。</think>根据全球大模型最新排名数据和评测体系,主流大模型排名情况如下: ### 一、商业闭源模型排名(2024年3月) 1. **GPT-4-Turbo**(OpenAI)保持综合能力第一[^1][^2] 2. **GPT-4o**(OpenAI)多模态能力提升显著 3. **Claude 3 Opus**(Anthropic)推理能力突出 4. **PaLM 2**(Google)数学计优势明显 5. **ERNIE 4.0**(百度)中文领域保持领先[^4] ### 二、开源模型排名(Open LLM Leaderboard) 1. **通义Qwen-72B**(阿里云)登顶开源榜首[^3] 2. **Llama 3 70B**(Meta)英文语料优势显著 3. **Falcon-180B**(TII)参数规模最大 4. **DeepSeek-R1**(深度求索)长文本处理领先 5. **Baichuan2-13B**(百川智能)轻量化表现优异 $$ \text{模型性能评分} = \alpha \cdot \text{MMLU} + \beta \cdot \text{GPQA} + \gamma \cdot \text{TheoremQA} $$ 其中权重系数满足$\alpha + \beta + \gamma = 1$[^3] ### 三、核心评测指标 1. **基础能力**:参数规模(达$10^{12}$级别)、训练数据量(超万亿token) 2. **生成质量**:准确性($\geq$85%基准线)、创造性(多轮对话保持率) 3. **资源效率**:每百万token计成本($0.5-2美元区间) 4. **安全合规**:有害内容拦截率(需$\geq$99%) 5. **多模态支持**:图文音视频跨模态理解能力 国内模型中,通义千问在MMLU基准测试准确率达$82.3\%$,超越Llama 3 70B的$79.5\%$[^3],而ERNIE 4.0在C-Eval中文榜单保持首位。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值