中国AI应用繁荣:互联网模式可以参考,不能照搬——2025,把大模型的门槛打下来

部署运行你感兴趣的模型镜像

大模型产业熬过了“没有超级应用”的2024年,熟悉的论调又再度出现——“2025年AI应用会井喷式增长”。

横跨互联网和AI创业的张岩发现,行业好像有两股风向,一股是大模型看起来很美好,但很难落地;另一股是“狼真的要来了”,大模型应用就要走到临界点,错过这一波等于错过未来十年。这种分歧,即便是在最具有创新精神的互联网行业也无法完全避免。

“就算大模型更新迭代的速度慢下来了,但怎么跟业务结合,自己的数据够不够用,AI应用能不能取得好的落地效果,大家都不确定。大家愿意投入大模型,前提是有确定的收益和试错的成本。”张岩说。

悲观者永远正确,乐观者永远前行,是互联网行业数十年发展最佳的历史注脚,如今到了大模型时代将被继续验证。问题是,首先要看清如今大模型产业的机会在哪,互联网又该如何再赢一次?

大模型淘汰赛,也是应用繁荣的开始

不知何时起,大模型产业进入了淘汰赛,情绪的传递透过各个环节传递。

近两年,基础大模型吸引了绝大部分关注,这可以理解。大模型行业才刚刚行进到收敛阶段的开端,典型现象是基础大模型预训练的玩家减少,比如刚刚宣布退出预训练的零一万物,不管是互联网巨头还是初创AI独角兽,都得掂量掂量一年几十亿美元的预训练成本。

再如人才的流动,互联网和大模型都是高人才密度行业,行情好的时候高薪招聘应届生,薪资翻倍挖技术大牛候选人都不新鲜,现在大模型岗位至少比去年少了30%,而且薪资也没有那么好谈了。

投资人更是直观感受到钱的流向,原本怀着FOMO(Fear of Missing Out)情绪的投资人,现在更担心自己的老股卖不出去,没能入局的投资人暗自松了一口气。就连华尔街也不再挥金如土,对大模型相关公司的投资向头部集中,并且关注投资收益。

与其说大模型产业进入了淘汰赛,不如说是大模型训练和推理的转换期。以大模型为代表的AI技术,正在成为划时代的革命技术浪潮,不过更多人融入这次浪潮的触点不在大模型训练,而是在大模型推理。

迄今为止大模型产业的最大受益者之一,英伟达 CEO 黄仁勋表示,未来推理的增长将远大于训练的增长。他指出,扩展人工智能的重点已从训练前转移到训练后和推理,推理时计算将作为一个全新的智能扩展向量,且英伟达超过 40% 的收入来自推理,这是正在经历的工业革命。

怀有此种观点的专家不在少数,一个简单的道理是,不是所有AI创业都需要做基础大模型,但是AI应用一定需要推理,就像中国互联网的繁荣是因为应用,而不是底层的芯片、操作系统、指令集、数据库等等。

但话又说回来,今时不同往日,全球技术开放性受阻,中国必须牢牢将根技术掌握自己手里,不仅是互联网的根技术,也是AI产业的根技术。在这种情况下,互联网行业自然会去寻找合适的搭档,腾讯音乐与华为云在大模型领域的合作,就是一个典型代表,腾讯音乐的大模型推理引擎与华为云昇腾AI云服务相互趋近,让企业在推理层面有了成本可控、效益更优的另一种选择。

把技术和成本门槛打下来

有不少用户发现,微信键盘的文本润色越来越好用了,速度快且猜得准;QQ音乐旗下的奇喵相机微信小程序,图像生成时间也变短了;微信、QQ音乐、全民K歌等平台背后,都有腾讯音乐娱乐集团(TME)天琴实验室的领先技术加持。MUSELight大模型推理加速引擎,带来了更高效的AI内容生成能力。

这给其他互联网行业玩家提了个醒,腾讯音乐和其他竞争者不同之处就在于,先找到自己最适合的大模型切入点,务实的实践落地大模型,这一理念也促成了腾讯音乐天琴实验室和华为云昇腾AI云服务的合作,推出了MUSELight大模型推理加速引擎,带来了更高效的AI内容生成能力。

在当前阶段,大型模型在应用端面临的挑战主要集中在两个方面:高成本和高技术门槛。许多互联网企业虽然对大模型的应用充满热情,但由于这两大难题,他们往往难以将创意和愿景转化为实际的成果。如何有效地提高模型的推理速度以及显著降低部署成本,已经成为决定大模型能否被更广泛应用的关键因素。这不仅关系到技术实现的可行性,也直接影响到大模型技术在各个行业和领域的普及。

据了解,MUSELight在其首阶段的发展中,已经成功完成了对Stable Diffusion系列视觉大模型的加速迁移适配工作。这一成果的实现,得益于天琴实验室的MUSELight深度结合了昇腾算力架构的特点和潜力,采用了多项创新性的优化策略。

具体来说,MUSELight采用了计算核心高度并发的方式,使得各个计算核心能够同时处理多个任务,从而提高了整体的计算效率。此外,还采用了流水折叠编排的方法,将复杂的计算过程分解为多个简单的步骤,并按照一定的顺序进行排列,使得计算过程更加流畅,减少了计算中的等待时间。

在计算和数据移动方面,MUSELight采用了高度向量化的策略,将数据和计算进行了有效的整合,使得计算和数据的移动更加高效。同时,还对核心算子进行了原生定制,使得算子的运行更加符合昇腾AI算力的特点,进一步提高了计算效率。相比传统AI算力解决方案,推理速度提升超过166%,性价比提升35%。

以歌单封面生成为例,是MUSE AI技术基于音乐理解绘制图片的创新成果,通过分析歌曲的内容和情感等要素,AI快速生成与音乐风格匹配的封面。昇腾AI云服务的加入,使得这项业务不仅可以大幅提升歌单封面制作效率,还能够降低制作成本,有效推进音乐制作产业的数智化升级,进一步丰富音乐作品的呈现形式。

“跟行业同级别AI算力相比,我们实现了AI算力的自主创新和突破。”这将对消费级和行业端的应用产生关键影响,用户可以使用更大参数的模型,以更低的成本实现更好、更快的视觉生成效果。腾讯音乐娱乐集团天琴实验室AI大模型负责人吴斌博士表示,双方预计将把大语言模型等更多大模型的昇腾版加速方案,在昇腾AI云上联合发布。

智能化时代,互联网的外生力量

华为云出现在互联网行业智能化创新的频次越来越多了,这不是偶然。越是对行业风向变化敏锐的互联网企业,就越能先一步感受到互联网自身的局限性,互联网本身的开放性又推动其主动找寻合适的外部力量,华为云和互联网行业早就双向奔赴。

和其他互联网能力服务商不同,华为云有着更丰富的能力拼图,如前所述的昇腾AI云服务,可以提供全栈自主可控的AI算力,支持资源弹性伸缩、按需即开即用,为智能应用后端提供强劲的性能和充足的算力。

再如云云协同,华为终端云服务和华为云的协同,全球超10亿鸿蒙生态设备,为互联网行业提供了用户增长的新路径。鸿蒙和昇腾的组合,全面打通了从底层算力到智慧终端的原生智能应用生产线,昇腾AI云服务的系统级 AI 能力下沉到鸿蒙系统,原生智能应用在昇腾AI云服务上跑得更快更稳。

大模型技术栈链条长且覆盖面广,产业链中的企业互为生态关系,在这方面,华为云提供了更好的开放生态,企业客户既用云实现自身数智化转型升级,也参与到华为云生态内,实现更深度的产业链协同与联合创新。

华为云生态已汇聚超4.5万家合作伙伴,超760万开发者,云商店上线超1.2万款商品。与伙伴实现业务联合拓展和商业共赢的同时,华为云还持续推动了技术应用走深向实,协同鲲鹏、鸿蒙、HMS、欧拉、高斯六大开发者生态全面赋能开发者。

AI时代是比互联网时代更大的机会,相对应的挑战也成比例提升,面对更多的难题和难事,一大批如腾讯音乐天琴实验室般的行业智能化的“先进”们涌现,这些企业正在深度使用数智化技术。华为云也在助力这些“先进”企业们,解决智能化过程中的技术、品牌、生态等的难题和难事,携手互联网企业奔向更远、更确定的智能未来。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

您可能感兴趣的与本文相关的镜像

ComfyUI

ComfyUI

AI应用
ComfyUI

ComfyUI是一款易于上手的工作流设计工具,具有以下特点:基于工作流节点设计,可视化工作流搭建,快速切换工作流,对显存占用小,速度快,支持多种插件,如ADetailer、Controlnet和AnimateDIFF等

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值