深度求索发布DeepSeek:高效、低成本的开源大语言模型

部署运行你感兴趣的模型镜像

image.png

深度求索

在人工智能领域,大型语言模型(LLM)的快速发展正在重塑技术格局。DeepSeek 作为中国领先的 AI 公司,其最新发布的 DeepSeek-V3 模型以其卓越的性能和极低的成本,迅速成为业界关注的焦点。本文将深入探讨 DeepSeek-V3 的数据参数、与其他主流模型的对比,以及其在实际应用中的表现。

DeepSeek

image.png

DeepSeek-V3

DeepSeek-V3 是一款基于混合专家(MoE)架构的大语言模型,总参数量高达6710亿,每次推理仅激活370亿参数,显著降低了计算开销。其训练数据规模为14.8万亿高质量 token,涵盖了数学、编程、中文等多个领域,确保了模型的广泛适用性。

在训练成本方面,DeepSeek-V3 仅需280万GPU小时,花费557.6万美元,远低于Llama 3 405B 的3080万 GPU 小时和 GPT-4 的1亿美元。这一成就得益于其创新的 FP8 混合精度训练框架和高效的负载均衡策略,大幅提升了算力利用率。

参数对比

image.png

参数对比

DeepSeek-V3 多项评测成绩超越了 Qwen2.5-72B 和 Llama-3.1-405B 等其他开源模型,并在性能上和世界顶尖的闭源模型 GPT-4o 以及 Claude-3.5-Sonnet 不分伯仲。

百科知识:DeepSeek-V3 在知识类任务(MMLU, MMLU-Pro, GPQA, SimpleQA)上的水平相比前代 DeepSeek-V2.5 显著提升,接近当前表现最好的模型 Claude-3.5-Sonnet-1022。

长文本:长文本测评方面,在DROP、FRAMES 和 LongBench v2 上,DeepSeek-V3 平均表现超越其他模型。

代码:DeepSeek-V3 在算法类代码场景(Codeforces),远远领先于市面上已有的全部非 o1 类模型,并在工程类代码场景(SWE-Bench Verified)逼近 Claude-3.5-Sonnet-1022。

数学:在美国数学竞赛(AIME 2024, MATH)和全国高中数学联赛(CNMO 2024)上,DeepSeek-V3 大幅超过了所有开源闭源模型。

中文能力:DeepSeek-V3 与 Qwen2.5-72B 在教育类测评 C-Eval 和代词消歧等评测集上表现相近,但在事实知识 C-SimpleQA 上更为领先。

 有关慧星云

慧星云致力于为用户提供稳定、可靠、易用、省钱的 GPU 算力解决方案。海量 GPU 算力资源租用,就在慧星云。

您可能感兴趣的与本文相关的镜像

Wan2.2-I2V-A14B

Wan2.2-I2V-A14B

图生视频
Wan2.2

Wan2.2是由通义万相开源高效文本到视频生成模型,是有​50亿参数的轻量级视频生成模型,专为快速内容创作优化。支持480P视频生成,具备优秀的时序连贯性和运动推理能力

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值