“AI 的未来是开放的,并且是由红帽驱动的!”红帽全球副总裁兼大中华区总裁曹衡康在 2025 红帽媒体 Open 讲活动上如是说。
“AI 的未来是开放的,并且是由红帽驱动的!”红帽全球副总裁兼大中华区总裁曹衡康在 2025 红帽媒体 Open 讲活动上如是说。
面对大模型混战、算力成本高、安全隐忧难解等行业痛点,红帽以一套贯穿“算力-模型-数据-应用”的全栈开源方案,试图为企业打造一条可掌控、低成本、高兼容的 AI 落地路径。其核心逻辑清晰而坚定,以开源的方法论解耦技术枷锁,让企业自由驾驭任意模型、任意加速器、任意云。
红帽 AI 的“Any”哲学,重构企业 AI 自由版图
我们经常看到,红帽在发布产品时,会多次出现“Any(任意)”这个词。any cloud,any platform,any hardware,any model,any server,any cloud……而这正是红帽打造产品的理念。
红帽大中华区方案架构部总经理王慧慧介绍道,红帽是一家开源公司,目标是通过中间层来解耦硬件和应用。通过打造中间层产品,让客户不用担心底层硬件设备,业务运行在云端还是本地,使用大模型的品牌,以及开发应用的语言,让企业彻底摆脱技术选型的难题,真正实现“任意模型、任意加速器、任意云”的自由部署。
这一理念在 AI 领域涉及四个层面,从推理加速到数据工程,从全栈平台到智能体生态,红帽正以开源为基础,重塑企业级 AI 的生产范式。
首先是推理层面,红帽推出高效大模型推理解决方案。基于 vLLM 社区打造的企业级推理服务器,集成量化压缩工具链,对 Qwen、DeepSeek 等主流开源模型实现性能跃升,并且首创llm-d引擎,支持超大规模推理。
其次是智能数据工程平台。通过 InstructLab 实现多语言数据对齐,Doding 引擎处理非结构化数据,OpenShift AI 集成 Kubeflow 分布式训练框架,让私域数据真正赋能模型进化。
第三是全栈 AI 基础平台。全栈 AI 基础平台覆盖数据合成、模型优化和生产推理全流程。OpenShift AI 标准化模型库和特征仓库,以及MLOps 观测体系(监控/告警/溯源)的引入,让企业从“试验室原型”平滑过渡至“生产级负载”。
第四是智能体开发生态。以 Llama Stack 统一 API 层整合推理/RAG/工具调用能力,通过模型上下文协议(MCP)实现智能体互联。企业无需绑定特定模型或平台,即可构建自主协作的 AI 智能体。
双引擎破局 AI 推理“最后一公里”
当业界困于模型训练的争论时,红帽已经敏锐地捕捉到 AI 商业化的站在拐点的契机。王慧慧指出,过去产业界聚焦在模型训练阶段,探讨模型选择与部署方式,这本质上是技术准备期,因为 AI 并没有为企业带来实际价值,或者是“真金白银”的收入。
据 Gartner 报告数据显示,到 2028 年,80%以上的数据中心工作负载加速器将专门部署用于推理,而不是训练用途。可见,未来更多的计算资源都是集中在推理阶段,这也是红帽大力投入到推理方面的原因。
在推理层面,业界普遍遇到两个问题,如何使用最小的硬件设备、最小的成本,完成最高性能推理。二是是否可以将推理的工作量分散到不同服务器上进行,而不是集中在单一一台服务器上。
为此,红帽以两大技术利器破局,vLLM 推理服务器和 llm-d 分布式推理引擎。
vLLM 推理服务器向上无缝集成 Qwen、DeepSeek、Llama、Mistral 等主流开源模型,通过独创的量化压缩工具链实现性能指标提升,向下兼容 NVIDIA、AMD、Google TPU、AWS Neuron 等加速器。值得注意的是,vLLM 推理服务器的架构更加灵活,既可以运行在单台服务器,又可以横向扩展至多节点集群,并且跨越物理机、虚拟机、私有云及边缘设备实现一致体验。
王慧慧表示,红帽的产品布局始终贯穿着“解耦”哲学。“从 Linux 到容器,从 vLLM 到 llm-d,我们帮助用户规避复杂的硬件环境、开发技术和过载的模型选择。”
这种理念延伸至交付模式:企业可独立部署 vLLM 推理服务器,或者选择 RHEL AI(操作系统+推理服务捆绑包),也可以嵌入 OpenShift AI 平台,三种形态自由适配不同场景,既能独立运行发挥专长,亦可组合实现“1+1>2”的协同效应。
llm-d 分布式推理引擎,是基于 Kubernetes 容器架构与 vLLM 分布式逻辑,它将推理任务智能拆解到多台服务器协同处理,突破单机算力天花板,实现大规模推理。此外,企业可按需构建 llm-d 分布式推理架构,并支持私域划分,可按照部门划分专属资源池,确保敏感数据不越界。这一创新吸引 AMD、Cisco、IBM、Hugging Face 等巨头加入联盟,共同推动分布式推理标准化。
在红帽的蓝图中,推理不再是孤立的技术节点,而是连接模型价值与商业回报的枢纽。当“任意模型、任意加速器、任意云”的兼容性成为现实,企业终于能摆脱技术枷锁,专注让 AI 真正服务于业务增长的核心命题。
以开放协议重构 AI 协作范式
在推理技术突破之后,红帽正沿着“任意模型、任意加速器、任意云”的理念延伸至智能体领域,以开放协议重构企业 AI 协作的底层规则。
2025 年也被称为是 AI 智能体元年。王慧慧坦言,智能体还是刚刚兴起,还不能完全断定智能体的未来发展方向。在红帽看来,Llama Stack 工具链与模型上下文协议(MCP)会是未来热门走向,也是目前较为领先的技术堆栈。
因此,红帽 AI 平台引入了 Llama Stack 工具链和 MCP 协议,使开发者摆脱模型与平台的绑定,通过红帽 AI 平台打造属于自己的智能体,让开发人员无需关心模型选择和数据平台。
如今,各家模型厂商都在打造自己的智能体生态,那么红帽的智能体开发生态又有哪些优势呢?红帽大中华区首席架构师张家驹介绍了三点优势。
首先,红帽通过一套开源技术和堆栈贯穿虚拟化应用、云原生架构和智能体开发,彻底打破传统 IT 系统与智能体之间的割裂。其次,红帽通过集成不同协议,支持开发者自由选择模型,避免被技术绑架,当前已经集成 MCP 协议,A2A 协议也在快速推进中。第三,红帽也在和低代码开发平台进行合作,企业可以在红帽 AI 平台上使用低代码开发工具开发自己的企业级应用。
通过协议开放、技术解耦与生态协同,红帽为企业 AI 应用开辟了从工具到平台、从单点应用到生态网络的进化路径。
结语
“当下企业若想开展企业级 AI 建设,找红帽就对了。”曹衡康表示,红帽以全栈解决方案、成本卓效、安全可控和开放生态四大优势,成为企业级 AI 建设的优选伙伴。
当业界仍在争论大模型与小模型、公有云与私有部署时,红帽已用开源之手推开一扇新门,没有非此即彼的站队,只有基于开放标准的自由组合。在这场 AI 重塑生产力的长征中,红帽正以解耦为剑,以兼容为盾,成为企业穿越技术迷雾的引路者。