瑞士发布多语言开源大模型Apertus 以开放理念推动AI全球化发展
2025年9月2日,由瑞士联邦理工学院(EPFL)、苏黎世联邦理工学院(ETH Zurich)及瑞士国家超级计算中心(CSCS)联合发起的瑞士人工智能计划(Swiss AI Initiative)正式推出该国首个大规模开源语言模型Apertus。该项目以构建兼具透明度、多语言能力与可访问性的AI系统为核心目标,旨在使瑞士跻身全球人工智能研究的核心贡献者行列。
Apertus作为一款大型语言模型(LLM),提供80亿参数(8B)和700亿参数(70B)两个版本,均采用Apache 2.0开源许可证。与当前主流的专有模型不同,该模型实现了训练架构、数据集、模型权重及中间检查点的完全开放,源代码、部署文档和开发日志也同步公开,确保了模型的全链路可追溯与可复现性。项目团队表示,这种全栈开放设计使开发者、研究机构能够深度参与模型的每一个环节,从底层架构到应用层优化均可进行定制化修改。值得注意的是,项目名称"Apertus"源自拉丁语"开放"一词,集中体现了其以开放理念为核心的发展原则。
该模型最显著的技术突破在于其前所未有的语言覆盖能力。Apertus在包含1500余种语言的15万亿词块语料库上完成训练,其中非英语数据占比达40%。这一训练策略不仅涵盖了瑞士本土的罗曼语、瑞士德语等濒危语言,还特别强化了在主流AI模型中代表性不足的低资源语言支持。项目方强调,这种多语言均衡发展的路径旨在服务更广泛的全球社区,打破现有AI模型普遍存在的英语优先训练模式,推动人工智能真正实现语言平等。
在应用场景设计上,Apertus的两个版本形成互补的产品矩阵。8B版本针对边缘计算、本地化部署和中小规模研究场景优化,可在普通消费级硬件上实现高效微调;70B版本则面向企业级大规模部署和高复杂度任务需求,具备处理海量数据的能力。该模型已在多语言翻译工具、智能教育平台、自动摘要系统、对话式AI等领域展现出应用潜力。依托Apache 2.0许可证的宽松授权条款,开发者可将其自由应用于学术研究和商业产品开发,无需支付额外许可费用。
国际科技界对Apertus的发布给予了广泛支持。官方部署合作伙伴Public AI在发布当月即协调五个国家的20个计算集群,提供超过115,000小时的GPU算力支持。AWS、Exoscale、新加坡AI、Cudo Compute、CSCS及澳大利亚国家计算基础设施(NCI)等机构也提供了关键的基础设施支持。目前用户可通过Public AI推理平台、Hugging Face开源社区或瑞士电信(Swisscom)的本地化服务三种渠道访问该模型。
瑞士人工智能计划明确表示,Apertus的发布仅是长期战略的起点。未来团队将重点推进医疗健康、气候变化、法律科技和教育创新等垂直领域的模型优化,同时始终坚守开放透明的核心原则。项目联合负责人安托万-博塞鲁特(Antoine Bosselut)在发布声明中指出:"Apertus代表着我们对构建主权、开放且服务于全球公共利益的人工智能基础设施的长期承诺。"
从行业影响来看,Apertus的出现可能重塑开源AI生态的竞争格局。其多语言能力与全栈开放特性的结合,为全球AI研究者提供了一个兼具学术价值和商业潜力的新型基础设施。特别是在欧盟AI法案即将全面实施的背景下,这种透明可追溯的模型架构或将成为AI治理合规的重要参考范式。随着后续领域专用模型的陆续推出,Apertus有望在医疗诊断、气候模拟等专业领域形成差异化竞争力,为解决全球性挑战提供AI技术支撑。
在技术推广层面,项目团队建立的多渠道访问体系降低了使用门槛。通过与云服务商和电信运营商的合作,不同资源条件的用户均可找到适合的接入方式:研究机构可通过Hugging Face获取原始权重进行深度研究,企业用户可利用Public AI的API快速集成功能,而瑞士本土用户则能通过Swisscom获得低延迟的本地化服务。这种多层次的服务架构展现了开源项目在商业化落地方面的创新探索。
展望未来,Apertus的发展路径揭示了开源AI模型的三大趋势:一是从通用模型向领域专用模型深化,二是从单一语言向多语言协同进化,三是从技术开放向生态共建拓展。随着瑞士人工智能计划持续推进垂直领域优化,Apertus有望成为首个实现多语言医疗诊断、跨语种法律分析的开源基础模型,为全球AI伦理与技术创新的平衡发展提供新的实践样本。
创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考



