围观了港科大等团队的最新综述,发现深度学习+多目标优化近年来也是话题多多,尤其在图像生成、自动驾驶、大模型训练等场景中呈现爆发式增长。
简单说来,这种技术不仅能解决传统单目标优化的局限性,还能让模型在复杂场景中实现多任务协同提升,成为当前顶会抢发热点也不奇怪。更别说这方向正处于技术红利期,无论是算法创新还是场景开拓都很有空间。
比如应用型研究(医疗/通信/环保)+大模型对齐就比较容易出成果,创新切入点推荐小而精(改经典算法)、跨学科(+脑机接口)等。感兴趣可以找找参考,或者直接拿我整理好的10篇****深度学习+多目标优化前沿论文。
Rethinking Neural Multi-Objective Combinatorial Optimization via Neat Weight Embedding
**方法:**论文提出一种基于深度学习的多目标优化方法,通过“权重嵌入”技术将权重信息融入模型,直接学习权重特定表示以解决多目标优化子问题。采用WE-Add和WE-CA两种模型,显著提升求解性能,收敛性、多样性与泛化能力更佳。
创新点:
- 提出了一种新颖的权重嵌入方法,能够直接学习权重特定的表示,捕捉权重与实例的交互信息。
- 设计了两种模型:简洁的加法模型(WE-Add)和增强的条件注意力模型(WE-CA),分别通过简单的加法操作和特征级的条件注意力机制融入权重信息。
- 在多个经典多目标优化问题上验证了方法的优越性,展现出更好的性能和跨问题规模的泛化能力。
Neural Multi-Objective Combinatorial Optimization via Graph-Image Multimodal Fusion
**方法:**这篇论文提出了一种深度学习方法,通过将问题实例的图信息和图像信息结合起来,利用多模态融合框架(GIMF)来解决多目标优化问题,显著提升了性能和泛化能力。
创新点:
- 提出图-图像多模态融合框架(GIMF),将问题实例的图信息和图像信息结合起来,提升多目标优化性能。
- 设计问题规模自适应分辨率策略,增强模型对不同规模问题的泛化能力。
- 引入模态特定瓶颈的多模态融合机制,高效整合图和图像信息,进一步优化模型性能。
Solving Multiobjective Combinatorial Optimization via Learn to Improve Method
**方法;**论文提出了一种基于深度强化学习的权重相关策略网络(WRPN),用于解决多目标优化问题。它通过学习改进操作来提升解的质量,并结合多目标进化算法框架,显著提高了求解性能。
创新点:
- 提出权重相关策略网络(WRPN),基于“学习改进”范式,通过策略网络指导多目标优化问题的解的改进方向。
- 设计共享基线用于近端策略优化,降低模型训练中的方差,提升训练效率。
- 引入质量增强机制,基于实例增强技术进一步提升Pareto解集的接近性和多样性。
Deep reinforcement learning assisted surrogate model management for expensive constrained multi-objective optimization
**方法:**论文提出了一种深度强化学习辅助的进化算法,用于解决昂贵的约束多目标优化问题。它通过动态调整代理模型管理策略,根据进化状态选择最优的代理模型,从而在目标优化和约束满足之间取得更好的平衡。
创新点:
- 提出基于深度强化学习的代理模型管理策略,自动选择最优代理模型方案。
- 结合多种代理模型,适应不同优化阶段和约束处理需求。
- 实验表明该方法在求解昂贵约束多目标优化问题上优于现有技术。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。