百模大战之后,大伙儿或许有个共识:
现在不缺大模型,缺的是怎么更好地把大模型用起来的方法。
有个现成的例子是,印象笔记一直被很多知识工作者当成自己的“第二大脑”来用,在AIGC时代,用户看到了它更智能的改变。
其实早在2018年,印象笔记就在AIGC的领域里开启了自己的摸爬滚打,几年下来,积累了不少经验和思考。
在本次中国AIGC产业峰会上,印象笔记董事长兼CEO唐毅从知识管理的角度,分享了印象笔记在AIGC领域,从技术到应用和产品的所见所闻、所思所感。
为了完整体现唐毅的思考,在不改变原意的基础上,量子位对演讲内容进行了编辑整理,希望能给你带来更多启发。
中国AIGC产业峰会是由量子位主办的行业峰会,20位产业代表与会讨论。线下参会观众近千人,线上直播观众300万,获得了主流媒体的广泛关注与报道。
话题要点
-
模型算法进展缓慢,算力投入与收益不成比例;
-
公域数据穷尽,合成数据使用导致模型输出效果下降;
-
小型化、垂直化的模型可以更高效地处理问题;
-
强调了AI交付和模型之间的中间层——复合AI系统的重要性;
-
AIGC产品的交互不是绝对的LUI(语言用户界面)或者GUI(图形式用户界面);
……
以下为唐毅演讲全文:
大量使用合成数据导致模型输出效果下降
大家下午好,我是印象笔记唐毅,我今天演讲的题目是《用AI驱动的第二大脑实现增强人生》。
针对AIGC技术,我认为从技术到模型、算法、实践和应用的一系列垂直和落地的思考是非常重要的。所以,今天我从知识管理的角度,分享一下印象笔记从技术到应用和产品的一些想法。
首先简单介绍一下印象笔记,它源于硅谷的一款叫Evernote的产品。
一直以来,印象笔记的愿景就是成为知识人群的第二大脑。这使得我们的思考一直围绕着“知识场景”和“大脑的关键功能”。
今天我会从AI驱动印象笔记系列产品,在内容理解、智慧提炼、个人知识积累和公域知识获取等知识管理的场景中的实践经验,来做分享。
印象笔记对AIGC的研发和实践早在2018年完成国内公司独立重组时就开始了。正式独立之后,我们首先更多地用了supervise learning的方式来做NLP,同时也开始启动了自己的小规模模型训练。
早在2023年3月,我们就已经开始利用自己的垂直专有模型驱动自己的AI产品,并将功能落地在旗下的软件和智能硬件产品。
由于印象笔记在国内市场较早地启动了AIGC的全面实践,我们也积累了更多的经验和更深入的思考。
在我们看来,AIGC的发现还处在比较早期的阶段,对人类社会的影响也才刚刚开始,但现阶段,关于大趋势和方向性的思考更是必不可少的。
首先,相比算力的发展和模型规模的扩大发展,模型算法的进展却是相对缓慢的。
同时,到现在为止,算力的投入和收益是不成比例的,我相信真正对产业经济产生深远影响的技术,最终总的回报ROI要达到正向才可以。
另一个对于基座模型的挑战是,在基座模型训练中,或许不一定每位在座的朋友都同意。
我们看到一个现象,在模型训练中,随着公域数据的逐渐穷尽,合成数据被大量加入使用,这也会直接导致模型输出效果下降。
有挑战也有机遇,我们看到,特定数据的优化在模型能力提升中的作用、模型的小型化趋势、小规模模型能力的持续提升在AI产品交付效果的提升中都起着越来越关键的作用。
强调“复合AI系统”概念
谈到AI交付,印象笔记是既做工具又做模型的厂商,在垂直整合的过程中,我们发现,由于我们采用印象专有大模型直接服务用户,用户可以对模型的效果和性能有着迅速和直观的感受,从而对背后的训练和调优过程给予直接有效的反馈。
而另一方面,AI产品的交付又远远不是仅仅将模型能力简单直接地交付到用户面前。
另一个显著的趋势是,小型化、垂直化的模型可以更高效地处理问题。 在行业日益追求模型效率化的过程中,数据对模型质量和交付质量的影响在提升,对算力的需求反而在下降。
基于这些趋势和我们的实践经验,我想强调“复合AI系统”的概念,这是在AI产品交付和大模型本身之间的一个非常关键的应用思考点和架构设计点。
从不同的论文中我们也可以看到相似观点——系统性思维下的模型训练、调优,以及与整个AI系统其它组成部分的有机组合,是现在AIGC应用的一个重要思考角度。
不同AI系统需要不同角度的思考,印象笔记关于“复合AI系统”的思考主要有以下几点:
第一 ,我们的模型采用混合部署策略,以专有模型驱动主要用户服务和交互场景,模型本身具有路由和任务判断能力,同时也具备质量判断和云端一体的路由判断能力。
第二 ,我们对公域和私域数据的区分处理和保护管理有独特的系统和严密的规则。
第三,智能代理本身的功能是阵列式的,在关键节点分析用户的意图、做任务的拆解,最后还要系统化地接收用户反馈的过程。
-
模型: 印象大模型是高效率、轻量化的专有模型,在知识场景中有着独特的和优异的性能表现。印象大模型端、云部署一体化,并具备一个重要的性能——能够根据意图判断和选择哪一个混合部署中的模型会有更好的处理的效果,也能判断和分析任务本身并在云或端模型中进行选择。
-
数据: 严格区分管理公、私域数据,确保模型训练和AI产品交付中的用户数据隐私保护。
-
Agent: 在混合部署策略下,模块化的Agent阵列能够真正有效地判断用户意图并根据拆解的任务步骤分步执行任务。
“复合AI系统”超越AIGC应用单一模型驱动的思考方式,而在此系统下设计一款成功的AI应用也需要考虑不同的因素,这也是印象笔记在AI产品的打造中比较独特的体会。
首先,我们需要非常明确地分析和判断出这款应用的准确使用场景。
同时,你的AI复合系统如何驱动这个产品给用户进行交付也十分关键。
对此,也有两个重要思考点。
一个是最合适的AI应用载体在哪——是在云端?在移动端?在某一个第三方平台?还是GPTs或插件?不用的载体在不同的场景和工作流中有着不同的作用。
另一个是何为最适合的交互——自然语言交互还是传统GUI交互?
提倡用直觉性的方式进行交互设计
我们提倡用符合用户直觉性的方式进行交互设计,使用户用到AI功能和AI产品的时候是一种最自然的选择和体验。
因此产品的交互不是绝对的LUI或者GUI——例如在纯粹LUI或GUI的交互中,它虽然更自由、更开放,但完全开放的对话窗口也会增加用户的焦虑感 ——用户会停在那里不知道该做什么。
所以产品中既应该有完全开放的交互窗口,也应该有开放交互和传统的GUI相辅相成的Copilot性质的交互设计,同时也应该有降低用户焦虑感的传统限制性菜单处理交互式设计。
因此,在一个“复合AI系统”下打造AI超级应用时,我们认为除了AI系统思维之外,数据、用户、场景、载体、交互等关键的要素是需要非常慎重考虑的关键点。
回到印象笔记的实践,我们通过自有模型的混合部署,比较早地进行了全面的布局和落地,推出了多种方向的功能:
内容生成与搜索、语义性搜索、大文件理解、多文件理解、与上万篇笔记的私人对话等等。
通过逐步实践,我们总结出了一些令我们感到兴奋的方法和获得了一些较为满意的结果。
“印象AI”的推出,对新用户的增长、用户留存和商业化转化的驱动效果都非常显著。
呼应我在今天演讲开始提到的观点——作为AI从业者,对于核心技术、产品策略、市场投入等方面的实践的检验,最终总要能够回到对ROI的结果的衡量上来。
目前,印象笔记旗下全系列的软件和智能硬件产品都已经在印象大模型的驱动下,完成了AI功能和产品的落地交付。
最后,我想说的是,在AI能力的加持下,印象笔记希望能够帮助用户智能汇聚信息、高效阅读内容并吸收知识、辅助灵感记录与创作、自动完成知识整理与提炼,让印象笔记和印象AI为您增强人生,成为您真正的“第二大脑”。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费
】
