SK Telecom发布A.X 3.1:韩国本土大语言模型的里程碑式突破

SK Telecom发布A.X 3.1:韩国本土大语言模型的里程碑式突破

【免费下载链接】A.X-3.1 【免费下载链接】A.X-3.1 项目地址: https://ai.gitcode.com/hf_mirrors/skt/A.X-3.1

2025年7月24日,韩国电信巨头SK Telecom(以下简称SKT)正式推出专为韩语理解与企业级部署优化的大语言模型A.X 3.1(发音为"A dot X")。这款完全由SKT自主研发的主权AI模型,从架构设计、数据构建到训练过程均依托其自研的TITAN超级计算基础设施完成,训练数据则来自包含2.1万亿tokens的高质量多语言语料库,其中韩语内容占比显著。

作为韩国AI技术自主化的重要成果,A.X 3.1展现出四大核心优势:首先是纯正的本土技术基因,从数据筛选到GPU算力调度均由SKT内部团队独立完成;其次是高效的多语言处理能力,在2.1万亿tokens的训练规模下实现了同类模型中的卓越性能;第三是领先的韩语理解深度,在韩国语言评估基准KMMLU(MMLU的韩语适配版)中取得69.2分的优异成绩;第四是独特的文化语境把握能力,在韩语文化理解测试CLIcK中获得77.4分,超越现有开源模型。此外,该模型还具备两大实用特性:处理相同韩语内容时比GPT-4o节省约33%的tokens消耗,显著降低推理成本;原生支持32,768 tokens上下文窗口,通过YaRN技术扩展后可达131,072 tokens。

核心技术架构解析

A.X 3.1代表了SKT在主权AI领域的端到端技术整合能力,涵盖模型架构创新、数据治理体系、基础设施部署及全链路优化方案。其技术架构参数如下表所示:

模型名称参数规模网络层数KV注意力头数隐藏层维度前馈网络维度
A.X 3.1340亿48层8819221824

高质量数据处理体系与策略性混合方案

SKT构建了覆盖20万亿tokens的多元化训练数据池,通过自研数据处理流水线完成全量数据的清洗与优化。该流水线整合了合成数据生成技术与多维度质量过滤机制,最终为A.X 3.1精选出2.1万亿tokens的韩语优先多语言训练语料。这种数据构建策略确保模型在保留多语言能力的同时,深度优化韩语处理性能。

A.X Logo 如上图所示,图片展示了A.X 3.1的官方标识。这一设计元素直观体现了SKT在AI领域的技术主张,为读者提供了对该韩国本土大语言模型的视觉认知,强化了品牌与技术的关联性。

全面性能评测结果

基准测试表现

在与同类模型的对比评测中,A.X 3.1展现出显著的韩语处理优势,同时保持了强劲的多语言通用能力。以下是主要评测维度的对比数据:

标准模型性能对比表
评测维度具体指标A.X 3.1EXAONE-3.5-32BKanana-flag-32.5BGemma-3-27BQwen2.5-32B
知识能力KMMLU69.7357.1764.19*59.4561.93
KMMLU-pro54.8945.39-50.4352.34
KMMLU-redux62.6648.32-54.8552.15
Click (chat CoT)77.0969.42-71.0368.17
MMLU75.2077.181.08*82.3583.4
通用能力Ko-MT-bench83.0680.1980.58*85.572.88
MT-bench84.1985.0983.56*84.3887.31
指令遵循Ko-IFEval75.2968.67-74.473.24
IFEval87.1182.6785.6*82.4582.27
数学能力HRM8K45.5336.3-4841.29
MATH75.4061.6457.82*80.7273.26
代码能力HumanEval+75.0077.4477.44*78.6682.32
MBPP+70.9065.8769.84*74.0773.81
LiveCodeBench23.3417.2-30.5526.9

注:标为模型方自报分数

从数据来看,A.X 3.1在韩语特定任务中表现尤为突出:KMMLU系列测试全面领先竞品,其中标准KMMLU分数领先第二名Kanana-flag-32.5B达5.54分;文化理解测试CLIcK更是以近8分优势超越所有对比模型,充分验证了其对韩国语言文化的深度把握。在通用能力方面,该模型在韩语MT-bench评测中获得83.06分,仅次于Gemma-3-27B,展现出均衡的综合性能。

轻量版模型性能对比表

为满足不同部署场景需求,SKT同时发布了A.X 3.1 Light轻量版本,在保持核心优势的同时进一步降低资源消耗,其性能对比数据如下:

评测维度具体指标A.X 3.1 LightKanana-1.5-8BEXAONE-3.5-7.8BQwen2.5-7BQwen3-8B (w/o reasoning)
知识能力KMMLU61.7048.2853.7649.5663.53
KMMLU-pro45.5437.6340.1138.8750.71
KMMLU-redux52.3435.3342.2138.5855.74
CLIcK71.2261.3064.1158.3063.31
KoBALT27.4323.1421.7121.5726.57
MMLU66.9568.8272.2075.4082.89
通用能力Ko-MT-Bench78.5676.3081.0661.3164.06
MT-bench74.3877.6083.5079.3765.69
指令遵循Ko-IFEval70.0469.9665.0160.7373.39
IFEval79.8680.1182.6176.7385.38
数学能力HRM8K41.7030.8731.8835.1352.50
MATH70.1459.2863.2065.5871.48
代码能力HumanEval+73.7876.8376.8374.3977.44
MBPP+61.6467.9964.2968.5062.17

轻量版模型在韩语任务中依然保持领先优势,CLIcK测试得分71.22分,超过所有同量级竞品,KMMLU系列测试也显著领先除Qwen3-8B外的其他模型,证明了SKT在模型压缩技术上的深厚积累。

技术创新亮点

A.X 3.1的成功不仅体现在性能指标上,更源于其全链路的技术创新:

1. 架构层面:340亿参数规模的模型采用48层Transformer结构,创新性设计8个KV注意力头与8192维隐藏层,配合21824维前馈网络,在精度与效率间取得最佳平衡。这种架构设计使模型在处理韩语复杂句式时具备更强的上下文关联能力。

2. 数据工程:SKT构建了覆盖20万亿tokens的原始数据池,通过自研数据流水线进行多轮清洗、去重与质量筛选。该流水线整合了先进的合成数据生成技术,能够针对性补充韩语专业领域语料,最终精选2.1万亿tokens用于模型训练,其中韩语相关内容占比超过60%。

3. 训练优化:依托TITAN超级计算基础设施,SKT实现了高效的分布式训练,通过混合精度计算与梯度优化技术,将训练效率提升40%。特别针对韩语形态素丰富的特点,开发了专用分词算法,使token利用率提升33%,直接降低了推理阶段的计算成本。

4. 上下文扩展:原生支持32K tokens上下文窗口,通过自研的YaRN扩展技术可将上下文长度提升至131K tokens,能够处理整部韩语小说或完整企业报告的长文本理解任务,为法律文档分析、学术论文综述等场景提供强大支持。

行业影响与未来展望

A.X 3.1的发布标志着韩国在大语言模型领域实现了从"跟随"到"引领"的战略转变。作为首个完全自主研发的企业级韩语大模型,其技术突破具有三重行业价值:

首先,在语言主权层面,A.X 3.1打破了国外模型在韩语处理领域的技术垄断,通过2.1万亿tokens的高质量本土语料训练,构建了真正理解韩国文化语境的AI基础模型,为政府、金融、医疗等敏感领域提供安全可控的AI解决方案。

其次,在技术普惠层面,轻量版模型的推出使中小企业也能负担AI部署成本,33%的token效率提升意味着同等预算下可处理三倍于传统模型的业务量,显著降低AI应用门槛。SKT已开放模型试用申请,开发者可通过https://gitcode.com/hf_mirrors/skt/A.X-3.1获取相关资源。

最后,在生态构建层面,SKT计划基于A.X 3.1打造开源生态系统,提供fine-tuning工具包与行业适配模板,重点面向制造、零售、教育等领域开发垂直解决方案。预计到2026年,该模型将带动韩国AI产业创造超过10万亿韩元的经济价值。

展望未来,SKT表示将持续迭代A.X系列模型,计划2026年推出支持100万亿tokens训练规模的5.0版本,同时扩展多模态能力,实现文本、图像、语音的深度融合。随着A.X 3.1的商业化落地,韩国AI产业正迎来自主创新的黄金时代,这不仅将重塑本土数字化转型格局,更可能通过其独特的语言理解能力,推动韩语成为全球AI交流的重要媒介语言。

【免费下载链接】A.X-3.1 【免费下载链接】A.X-3.1 项目地址: https://ai.gitcode.com/hf_mirrors/skt/A.X-3.1

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值