SOFAStack 即将迎来七岁生日啦!这有一封邀请函请您查收 💌
七周年
七年同行,依然热爱
2025 年是 SOFAStack 开源的第七年。自 2018 年 4 月 18 日起,七年的时间,无数开发者怀揣着对技术的热忱,用一行行代码、一次次贡献,让 SOFAStack 从一颗小小的种子成长为枝繁叶茂的大树,构建起了一个生机勃勃、充满创新活力的 SOFA 社区。
开源从不是单线程的坚持,而是千万开发者共同书写的故事。
七度春秋的炽热奔赴,以热爱之名续写璀璨篇章。感谢每一位陪伴着 SOFAStack 成长的 SOFAer 们,诚挚邀请大家前来参加 SOFAStack 开源七周年活动!
七周年
活动介绍
本次活动将于 2025 年 4 月 26 日 在 2050 大会(杭州)· 蚂蚁开源技术沙龙:探索 Cloud Native AI 的无限可能的论坛上进行。Koupleless 和 MOSN 将分别为大家分享最新的技术实践成果,共同洞察云原生与 AI 深度融合的未来趋势。此外,我们还为大家准备了 SOFAStack 七周年定制礼物🎁及茶歇,为大家提供一个轻松愉悦又干货满满的交流空间。
(图片仅供参考,以收到实物为准)
现场解锁更多礼物
七周年
活动日程
📅 时间:2025/4/26 14:00-17:00
📍 地址:浙江省杭州市 · 云栖小镇国际会展中心
七周年
活动议题
ModelSpec:云原生环境下的模型打包、分发和运行
赵晨,蚂蚁集团技术专家,ModelSpec 项目维护者
议题简介
在本次演讲中,我们将探讨云原生环境下的大语言模型(LLM)的打包、分发和运行的革新方法——ModelSpec。回顾基础设施发展的历程,我们经历了从机器中心化到虚拟机、再到容器的演进,每个阶段都催生了新的技术和思维方式。当下,随着 AI 模型中心化基础设施时代的到来,如何高效地管理、部署和运行 AI 模型成为关键。演讲将深入剖析 ModelSpec 如何为 AI 模型定义标准化规格,助力在云原生环境中实现更轻松、更快速的模型生命周期管理。
嘉宾简介
赵晨是现任 ModelSpec 项目的维护者,主要研究方向是模型标准化,并在 LLM 推理优化方面具有丰富的经验。赵晨致力于推动新一代 AI 基础设施的标准化和优化,帮助开发者高效地实现 AI 模型的部署、管理、和运行。
开源的异构算力切片技术——Project-HAMi
李孟轩,密瓜智能架构师,CNCF Speaker,CNCF 毕业项目 volcano approver,CNCF Landscape&sandbox 项目 HAMi 作者
议题简介
异构算力设备已经逐渐成为机器学习产品和服务中的常态化需求,近年来国产异构算力发展迅速,产生了一批相当有竞争力的产品。但其相对封闭的生态与云原生粗粒度的分配方式造成了生产环境中异构算力的使用率往往不尽如人意。如编程模型的复杂性、不同硬件之间的兼容性问题、系统的可扩展性和维护成本等。随着技术的不断进步和生态系统的成熟,预计这些问题将逐渐得到解决,异构计算的应用也将越来越广泛。
为了解决这些问题,需要对接入云原生的异构设备进行切片,使任务可以使用一部分的设备,这样多个任务可以同时无害的运行在一张卡上,并研发可以统一管理多种异构设备的技术。
本次分享将云原生集群中,不同的异构算力通过算力切片的技术,进行资源整合,以此降低国产异构算力的使用门槛,解决资源分配粒度过粗的问题,从而提升集群中异构算力设备利用率。为 AI 技术开发者提供借鉴。
嘉宾简介
清华大学计算机系硕士,专注于云原生以及异构算力领域,擅长云原生架构,GPU 虚拟化和异构算力管理,CNCF 毕业项目 volcano approver,CNCF Landscape&sandbox 项目 HAMi 作者,该项目已经累计部署超过 10 万个节点,超过 40 家企业采用,发表过 4 篇与云原生算力相关的专利,与信通院合作撰写《云原生 AI 技术架构白皮书》。
Koupleless: 如何助力应用低成本演进至 Serverless
梁栎鹏,蚂蚁研发工程师,Koupleless PMC
议题简介
在云原生技术重塑应用架构的今天,单体应用和微服务应用向 Serverless 架构的迁移仍面临困局:大应用存在启动慢、多人协作冲突和交付效率低问题,难以快速弹性伸缩、快速迭代;微服务拆出应用过多导致资源和管理成本高,难以节省机器成本;老应用演进到新架构的改造成本和风险高,难以演进到 Serverless。
你想让你的应用在 10 秒内启动,仅占 20MB 内存吗?
你想让协作开发不再阻塞,合作效率提升 10 倍吗?
你想用 1/5 的成本实现架构代际升级吗?
Koupleless 创新性地设计了对传统微服务架构的升级,解决以上痛点,提供同时拥有“Speed as you need(多人协作无阻塞、秒级应用构建启动)”“Pay as you need(资源复用、按需部署)““Deploy as you need(部分变更)”"Evolution as you need(轻松演进为微服务或回到单体应用)” 特性的架构演进方式:Koupleless 模块化,实现平滑升级。
本次议题将深度解密 Koupleless 在蚂蚁集团支撑了 100+ 万核机器的应用程序的实战经验,分享如何通过 Koupleless 实现构建产物从 GB 减少到 MB,业务启动时间从分钟级降到秒级,平均迭代效率提升 10+ 倍。
嘉宾简介
Koupleless PMC 成员,主要研究方向是云原生领域,参与维护与建设蚂蚁 SOFAArk 和 Koupleless 运行时框架和内部 SOFAServerless 产品的研发与实践,致力于帮助开发者更高效地开发业务,节省机器资源成本。
SOFAStack 七周年生日会
在议题分享的中场时间,将举行七周年庆生活动 我们为大家准备了SOFAStack 周年定制礼品,欢迎 SOFAStack 社区成员、贡献者、爱好者们在线下相聚!
智算时代的流量枢纽:蚂蚁 AI Geteway 如何提升大模型推理效能
罗泽轩,蚂蚁研发工程师,MOSN 社区核心成员
议题简介
2025 年既是 AI 应用爆发的年份,也是推理需求暴涨的年份。面对崭新的推理场景,和蒸蒸日上的推理需求,沿用传统的网关的思路无法很好地服务用户的需求,我们必须另辟蹊径,在推理场景里引入新的网关架构。
本次演讲分享蚂蚁 AI Gateway 在针对大模型推理的资源利用率不稳定、计算量大、对网关要求更高等挑战,如何通过智能路由、Cache-aware 调度、网关架构优化等方式,来显著提升资源利用率与推理效率。同时我也会分享业界同类项目在解决同类问题的实践,开阔观众眼界。
嘉宾简介
网关领域的多年老兵,对业界内同类项目有较深的研究,深谙如何通过网络赋能业务。曾经以 OpenResty 核心开发者和 Apache APISIX PMC 的身份维护这两个项目多年。当前从云原生领域向 AI 原生发展,正基于 Envoy 做 AI Infra 领域内的新业务。
使用 Kong MCP server 增强情境感知 API
张晋涛,Kong Inc. 高级工程师,CNCF Ambassador, Microsoft MVP
议题简介
Model Context Protocol(MCP)是 2024 年底由 Anthropic 推出的一项标准,从今年 2 月份开始逐步变得火热,越来越多的厂商和开发者都积极的拥抱了 MCP,它俨然成为了一项新的行业标准协议。Kong 早在去年初就推出了 Kong AI Gateway,结合自身多年在 API 领域的经验,为 AI 时代带来了一系列的解决方案。
如今 Kong 也推出了自己的 Kong MCP Server,通过本次分享我将介绍 MCP Server 到底是什么,它的价值在哪里,以及 与 Google 新推出的 Agent2Agent Protocol (A2A) 协议的对比。此外,还将介绍 Kong MCP Server 是如何增强情境感知 API 的,通过 Kong MCP Server 能为开发者和企业带来哪些价值。最后我将会分享 Kong 接下来在 MCP 以及 AI Gateway 方面的进展和规划。
嘉宾简介
张晋涛,云原生技术专家, Kubernetes ingress-nginx maintainer,『K8s 生态周报』的维护者,微软 MVP,CNCF Ambassador。对 Docker 和 Kubernetes 等容器化技术有大量实践和深入源码的研究,业内多个知名大会讲师,PyCon China 核心组织者。
七周年
活动报名
无论您是见证 SOFAStack 成长的『元老级』开发者,还是刚加入社区的『新鲜血液』,诚挚地邀请您加入 SOFAStack 七周年庆生活动,以热爱续写属于我们的精彩篇章!
欢迎扫描下方二维码报名
蚂蚁开源技术沙龙:探索 Cloud Native AI 的无限可能
提交报名,经主办方等审核并通过后可获得入场电子票
或点击底部「阅读原文」参与报名哦!