1 摘 要
缺失模态最近已成为多模态情感识别(MER)的一个关键研究方向。传统方法通常通过缺失模态重建来解决这个问题。然而,这些方法未能考虑不同样本之间重建难度的变化,从而限制了模型有效处理困难样本的能力。为了克服这一限制,我们提出了一种新颖的难度感知动态课程学习框架,称为 HARDY-MER。我们的框架在两个关键阶段运行:首先,它估计每个样本的难度水平,其次,它在训练过程中战略性地强调困难样本,以增强模型在这些具有挑战性的实例上的性能。具体来说,我们首先引入了一种多视角难度评估机制,该机制通过考虑直接难度(模态重建误差)和间接难度(跨模态互信息)来量化重建难度。同时,我们引入了一种基于检索的动态课程学习策略,该策略通过检索具有相似语义信息的样本并在易和难实例之间平衡学习重点来动态调整训练课程。对基准数据集的广泛实验表明,在缺失模态场景中,HARDY-MER 始终优于现有方法。
2 研究背景
缺失模态的多模态情感识别(MER)已成为情感计算的一个关键研究方向。在现实场景中,由于设备故障、异步信号或低质量输入(例如,视频质量下降),经常会出现模态缺失的情况。然而,大多数现有模型都是在完整模态数据上训练的,导致在缺失条件下性能不佳,并限制了它们在实际应用中的鲁棒性。
为了缓解这些挑战,研究人员探索了各种方法并取得了重大进展。在这些努力中,主流方法侧重于使用现有模态重建缺失模态。例如,Zhao等提出了一种想象网络来恢复缺失的模态并学习联合表示。Yuan等采用扩散模型框架,利用可用模态来指导缺失模态的生成,并将生成的结果与可用信息集成为联合表示。Liu等进一步改进了使用模态不变特征的重建过程,以增强模型在不完整输入下的鲁棒性。
尽管最近取得了进展,但仍然存在一个关键的局限性:传统方法平等对待所有训练样本,忽略了在不同实例中重建缺失模态的不同难度,如图1(a)所示。这种同质训练策略没有意识到,由于语义模糊、信号质量低或强烈的模态间依赖性等因素,某些样本本质上更难重建。因此,模型倾向于在简单样本上过拟合,同时对更复杂的样本利用不足,最终限制了其在复杂现实场景中的泛化能力和适应性。

图1 缺失模态下情绪识别的常规范式与我们提出的HARDY-MER的比较。(a)传统方法试图在不考虑重建难度的情况下重建缺失模态并预测情绪,这可能导致难样本的处理不理想。(b)我们提出的HARDY-MER首先估计样本特定的难度,然后根据估计的难度将更多的注意力分配给难样本,从而增强模型在具有挑战性实例的情绪识别方面的鲁棒性。
为了解决这一限制,我们从教育心理学中汲取灵感:学生经常对较难的概念进行更多的练习,以增强他们的理解。在这种策略的激励下,我们检索难样本的语义相似的示例,并将它们整合到训练中,从而鼓励模型更多地关注这些具有挑战性的实例。我们将这个新颖的框架称为难度感知动态课程学习,称为HARDY-MER。为了实现这一目标,我们主要需要两个关键功能:难度测量和难度感知训练。首先,我们开发了一种多视角难度评估机制,该机制根据两个标准量化难度:通过跨模态的重建误差来衡量的直接难度,以及通过模态之间的相互信息评估的间接难度。这种双视角评估使得难度评估更加全面和准确。其次,为了在训练过程中优先考虑较难的示例,我们提出了一种基于检索的动态课程学习策略。具体来说,我们设计了一种检索机制,将可用模态的局部相似性融合到样本的统一全局相似性分数中,然后用于识别最相关的候选样本。然后根据估计的难度动态调整检索到的样本数量,将更多的训练资源分配给更难的样本,同时减少对更简单的样本的重视。本文的主要贡献如下:
1)我们提出了一种新颖的多视角难度评估机制,该机制联合模拟直接和间接难度,以促进全面、模态敏感的训练难度估计。
2)我们引入了一种基于检索的动态课程学习策略,该策略根据估计的难度动态检索语义相关的样本,并自适应地调整它们的数量以平衡简单和困难实例之间的学习,从而增强模型在缺失模态条件下的鲁棒性。
3)在六种缺失模态设置中对 IEMOCAP 和 CMU-MOSEI 进行的广泛实验证明了我们的方法优于现有基线,在每个条件指标方面取得了新的最先进的结果。
3 研究方法
如图2所示,所提出的HARDY-MER包括两个主要部分:1)多视角难度评估通过根据缺失模态的重建误差和可用模态之间的互信息来评估输入样本的难度来模拟教师的角色;2)基于检索的动态课程学习旨在检索语义相似的样本,构建动态课程,并相应地训练模型。这个过程包括三个关键步骤:a)特征数据库准备,构建用于语义检索的多模态特征索引;b)基于难度的动态多模态特征检索,根据输入的可用模态选择最相关的样本,并根据输入的估计难度自适应调整检索大小,将更多的训练资源分配给更具挑战性的样本,同时将更少的训练资源分配给更容易的样本;c)基于检索的课程训练,其中使用生成的课程训练情绪识别模型。

图2:HARDY-MER 的概述,包括多视角难度评估、特征数据库准备、基于难度的动态多模态特征检索和基于检索的课程训练。
多视角难度评估
为了量化每个训练样本在缺失模态条件下的学习难度,我们提出了一个统一的指标,称为多视角难度,它由两个互补部分组成:(1)直接难度,反映模态的重建误差,以及(2)间接难度,测量不同模态之间的互信息水平。图2的第1阶段说明了该多视图难度评估的整体计算过程。在下文中,我们将详细介绍这两个指标的制定,并描述难度评估模块的训练策略。
语义表示提取。
给定一个多模态输入样本
,我们首先使用语义特征编码模块提取模态语义特征。该模块使用三个基于Transformer的编码器来生成表示
,其中下标“miss”表示不存在相应的模态。根据之前的工作,我们使用零向量表示缺失的模态。这些语义表示用于计算直接和间接难度分数。
难度度量计算。
直接难度:为了估计直接难度,我们将三种模态的语义特征连接起来,并将它们通过线性重建网络来恢复每种模态:

其中
表示模态 m 的重建特征,a、t、v 分别表示声学、文本和视觉模态。
是可训练的参数。[·; ·]表示跨模态的串联。我们采用均方误差(MSE)损失来衡量每种模态的重建质量:

并将整体直接难度定义为:

请注意,重建损失
仅用于难度估计,不参与梯度反向传播
间接难度:在间接难度计算模块中,我们使用每对模态的语义特征
计算每对模态之间的互信息(MI)。遵循互信息的标准定义:

其中 H (·)表示熵。然而,直接在高维特征空间中估计联合熵 H (X, Y )是众所周知的具有挑战性的。为了解决这个问题,我们采用了Huang等提出的策略,该策略通过融合特征近似联合分布。具体来说,对于给定的模态对
和
,我们首先应用交叉注意力机制来融合它们,将一种模态视为查询,将另一种模态视为键值输入:

为了确保对称的信息捕获,我们交换查询和键值角色并重复该操作:

然后通过将两个融合输出相加来获得最终的联合表示:

然后,我们估计每个单独模态 H (
)和 H (
)的熵,以及融合表示 H (
)的熵。p 和 q 之间的互信息计算如下:

最后,我们将间接难度定义为模态之间相互信息的总和:

统一难度评分:我们使用scaled logistics函数将直接和间接难度组合成最终的统一分数:

其中
和
是平衡直接难度和间接难度贡献的权重因子,β 是控制过渡锐度的缩放系数。该公式将难度分数归一化到范围(0,1),从而实现平滑且可微分的测量,反映样本的总体学习难度。
难度模块训练
为了保证估计难度分数的可靠性,我们对多视角难度评估模块采用了两阶段的训练策略。间接难度和直接难度分别在完整模态数据和缺失模态数据上分别进行训练。
**第一阶段:间接难度训练。**我们首先在完整的多模态样本上训练语义编码器和间接难度计算组件。该阶段的训练目标包括两部分:1)基于模态特征
的监督分类损失,鼓励编码器捕获情感判别信息:

式中,
表示基于全连通层的相应模态的分类头,
是模态m的预测情绪类,y是Ground Truth。CE(·,·)表示标准交叉熵损失函数。2)互信息正则化损失:

通过鼓励模块捕获一致的跨模态信息来保证互信息估计的可靠性。一阶段的总损失为:
。
**第二阶段:直接难度训练。**我们进一步微调了语义特征编码器组件,并使用缺失模态的样本联合训练了直接难度计算模块。给定从可用模态中提取的语义特征,我们首先使用串联的特征进行情感分类:

同时,我们根据模态重建误差计算直接难度:

该阶段的总损失定义为:
。
经过两阶段训练后,多视角难度评估模块的参数被冻结并在整个框架的其余部分使用。
基于检索的动态课程学习
图2中的阶段2说明了基于检索的动态课程学习模块的结构,该模块由三个步骤组成:特征数据库准备、基于难度的动态多模态特征检索和基于检索的课程训练。
特征数据库准备
如图2的步骤2-1所示,为了增强训练过程中存储和检索特征之间的语义一致性,我们采用了经过微调的预训练模型进行特征提取。此外,我们针对不同的模态采用不同的索引构建策略来优化检索性能。
**特征准备:**我们通过情感分类任务对预训练模型进行微调,以提取情感特征。具体来说,我们分别使用 DeBERTa-large1、Wav2Vec-large2 和 MANet3 作为文本、声学和视觉模态的冻结主干。每个主干上附加两个可训练的线性层,最后一层的输出用作语义特征进行检索。使用交叉熵损失训练分类头,以引导特征提取到与情感相关的表示。
**数据库构建:**我们利用 FAISS(Facebook AI Similarity Search)库构建模态语义特征数据库,根据每种模态的特征应用定制的相似性指标。对于文本特征,我们对所有向量进行归一化,并使用 IndexFlatIP4 实现基于余弦相似度的检索。对于声学和视觉特征,我们采用 IndexFlatL2 来执行基于欧几里得距离的检索。这个过程产生了三个独立的文本、音频和视觉模态数据库。这种配置的有效性在第 4.5 节中得到了验证,我们在其中比较了替代索引策略并证明了我们方法的优越性。
基于难度的动态多模态特征检索
该模块如图 2.2 的步骤 2 所示。给定一个输入样本
,我们首先使用模态语义编码器
来提取每个模态的高级嵌入:

对于每个可用的模态,我们使用嵌入
查询其相应的 FAISS 索引,以检索语义上最相似的前 k 个样本,并记录它们的索引。然后,我们将从所有可用模态中检索到的索引聚合并删除重复项以构建统一的候选集。基于这些指标,我们从三个模态特征数据库中检索相应的多模态特征(声学、文本和视觉)。在同一指数下检索到的特征共同构成候选样本。
为了评估候选样本和输入样本之间的总体相似性,我们计算候选样本的每个可用模态中它们对应特征之间的 L2 距离。然后,我们将这些距离的平均值作为综合相似性分数。最后,我们按相似度升序对所有候选样本进行排名,并选择前 k 个最相似的样本作为最终检索结果。
基于检索结果,进一步构建难度感知课程来指导模型训练。为确保较难的样本获得更多的支持,而较容易的样本获得较少的支持,我们使用第 1 阶段的样本难度评分 h ∈(0,1)来自适应地确定支持样本的数量:

然后,我们从检索结果中选择前k′条作为难度感知课程进行训练。
基于检索的课程训练
如图2的步骤2.3所示,我们将输入样本
与步骤2.2中检索到的相应难度感知课程进行集成,以训练我们的情感识别模型。该模型由三个基于 Transformer 的模态编码器、一个基于自动编码器的重建网络,以及一个分类头组成。为了确保每个编码器都能提取鲁棒的语义表示,我们遵循之前的工作,采用两阶段的训练策略。
**第一阶段:使用完整的模态输入进行预训练。**我们将完整的输入
输入到相应的编码器
中,以获得完整的模态语义特征
。为了监督每种模态的表示学习,我们附加了三个独立的分类头,并分别使用每个模态的特征进行情感预测。分类头经过交叉熵损失的训练,以指导每个编码器捕获与判别情感相关的信息。
**第二阶段:基于课程的模型训练。**然后,我们使用为每个输入生成的难度感知课程来训练完整的模型。每个训练实例都由原始输入
和检索到的支持样本组成,从高到低相似度排序。来自三个编码器的串联语义特征共同用于情感分类和缺失模态重建。在此阶段,使用分类损失和重建损失的组合对整个模型进行优化,这共同鼓励准确的情绪预测和缺失模态的稳健恢复。
在推理过程中,我们使用训练好的模型对模态缺失的输入进行情绪预测,而无需动态课程检索。
4 实 验
数据集和评估指标
为了验证我们方法的有效性,我们在两个公共基准数据集上进行了广泛的实验:
IEMOCAP是一个广泛采用的多模态情绪识别基准数据集。在先前的研究中,它常用于四类分类(即快乐、悲伤、中立、愤怒)和六类分类(即快乐、愤怒、悲伤、中立、惊讶、恐惧)。在这项工作中,我们在两种设置下评估了我们的方法,以确保与现有方法进行全面比较。
CMU-MOSEI是一个用于多模态情感分析的基准数据集,包含从 YouTube 收集的 22856 个带注释的视频剪辑。每个话语都标有 -3 到 +3 的连续情绪分数,指示其极性和强度。根据之前的工作,我们将此任务表述为二元情感分类,将分数大于零的话语标记为正面,将分数小于零的话语标记为负面。
对于IEMOCAP数据集,我们遵循之前的工作,并使用加权精度(WA)和未加权精度(UA)作为评估指标。对于CMU-MOSEI数据集,我们使用准确率(Acc)和F1分数作为评估指标。
实施细节
根据先前的研究,我们在六种缺失模态设置下评估了我们的模型:{a}、{t}、{v}、{a、t}、{a、v}和{t,v},其中’a’,'t’和’v’分别表示声学、文本和视觉模态。每个集合都表示在推理期间仍然可用的模态。为了确保公平比较,我们采用了GCNet中的公开可用特征。所有模型都使用 Adam 优化器训练了 25 个 epoch,学习率为 0.0001,dropout率为 0.5。超参数设置为k=5、
=0.6、
=0.4和β=4。实验是在 NVIDIA A800 GPU 上使用 PyTorch 1.13.1 和 CUDA 工具包 11.1.1 进行的。

表1:在两个基准数据集上,在六种可能的缺失模态条件下,与最先进的方法(SOTA)的性能比较。“Average”是指模型在所有六种缺失模态条件下的平均性能。每个数据集中的最佳结果以粗体突出显示,第二好结果以下划线标示。标有ΔSota的行表示与最佳竞争方法相比,我们的方法有所改进或减少。我们对“Average”列进行了T检验,∗表明p值<0.05。
与SOTA方法的比较
**为了评估我们的方法在各种缺失模态条件下的性能,我们在两个基准数据集上与几种最先进的(**SOTA)方法进行了比较,包括CPMNet、GCNet、MMIN、CIF-MMIN和MoMKE。所有方法都在相同的固定缺失模态设置下进行测试。如表1所示,我们的方法在所有测试条件下的每项条件和平均性能方面始终优于先前的方法。具体而言,HARDY-MER在IEMOCAP(4类)、IEMOCAP(6类)和CMU-MOSEI任务上的平均WA分别提高了0.0443、0.0297和0.0143,在不完全模态输入下表现出较强的泛化性和鲁棒性。特别是,我们观察到在 {v} 条件下性能提升最显着。这可能归因于视觉特征固有的较高不确定性,而这些特征更难单独解释。在这种情况下,我们的难度感知检索机制提供了语义相关的支持样本,从而提高了表示质量和预测可靠性。尽管在CMU-MOSEI的{a,t}和{t,v}条件下出现了轻微的性能下降(约0.9% - 1.5%),但我们的方法仍然提供了最佳的整体性能,在ACC和F1方面分别提高了0.0132和0.0163。这些结果进一步验证了HARDY-MER在缺失输入的鲁棒多模态学习中的有效性和实际适用性。

表2:六种缺失条件下的消融实验结果。我们报告了这些实验在IEMOCAP四类任务上的加权精度(WA)和未加权精度(UA)。
消融研究
为了彻底研究模型中不同模块的有效性,我们设计了一系列消融实验,并在 IEMOCAP 四类任务上对其进行了验证:
1)
和
:为了评估每个难度成分的个体影响,我们通过从整体样本难度计算中删除直接难度(
)或间接难度(
)来进行消融研究。在
设置中,我们排除直接难度项,仅根据间接难度计算样本难度。相反,在
设置中,我们仅依靠直接难度来估计样本难度。如表 2 所示,它们都会导致性能下降,证实每种类型的难度都提供了互补的价值。值得注意的是,排除
会导致更大的退化,凸显其与重建难度的更强相关性。
2)
:为了评估所提出的样本难度机制的整体有效性,我们进行了消融,其中难度分数完全从检索过程中去除。我们不再根据每个样本的难度自适应地确定检索到的样本数量,而是为所有训练实例分配固定的 Top-k 数量的支持样本,无论它们的重建或语义复杂性如何。表2中报告的性能下降表明,基于样本难度的自适应检索比均匀抽样产生更有效的结果。
3)
retrieval features:为了检验基于检索的课程学习的有效性,我们完全删除了检索机制,仅使用原始训练样本训练模型。在训练期间不会检索其他支持样本。表 2 中
retrieval features行中的结果表明,仅使用原始样本,而不在训练期间为具有挑战性的案例分配额外的样本,会降低模型的训练效率。这一观察结果也验证了我们检索课程的有效性。
4)
fine-tuning features:为了评估特征质量在检索过程中的重要性,我们用先前工作中公开预训练的特征替换了用于构建检索索引的微调特征。表2中的结果表明,该模型在使用微调特征后取得了显著的改进,特别是在条件{t}下,表明高质量的特征对于保持检索精度和模型鲁棒性至关重要。

表3:IEMOCAP四类任务对公式10中超参数的消融研究结果。
5)hyperparameter ablation: 为了评估公式10中的超参数对模型性能的影响,我们对
、
和β进行了消融研究。我们报告了六种缺失模态场景的平均WA和UA分数,如表3所示。结果表明,增加
通常会提高性能,这表明直接难度在评估样本整体难度方面起着更关键的作用。然而,当
超过0.6时,间接难度的贡献被过度抑制,导致性能下降。参数β用于在[0,1]范围内归一化难度指标;如果设置得太高或太低,它会破坏灵敏度并破坏模型动态调整 K 值的能力,最终影响整体性能。
可视化分析
为了分析微调对相似性测量的影响,我们使用t-SNE可视化了检索到的样本。我们从IEMOCAP数据集(四类)中随机选取一个样本,并从原始特征索引和微调特征索引中检索到与该样本最相似的1502个样本。图3中的红色和绿色点分别表示原始特征和微调后的特征,而黑色“X”标记了查询样本。结果表明,在所有模态下,微调后的特征都更集中在查询点周围,这表明微调后检索准确性有所提升。

图 3:IEMOCAP 四类中随机选择样本的 t-SNE 可视化,涵盖声学、文本和视觉模式。
我们通过将默认设置与三种替代方案进行比较,进一步研究了不同索引构建策略的影响,每种替代方案都修改了单一模态的距离指标:1)A-IP:将声学索引的 IndexFlatL2 替换为IndexFlatIP;2)V-IP:将 IndexFlatIP 应用于视觉索引;3)T-L2:使用IndexFlatL2作为文本索引,而不是IndexFlatIP。图4报告了不同模态条件下的加权精度(WA)和未加权精度(UA)。结果表明,对文本索引(T-L2)使用L2距离会持续降低性能,特别是在纯文本或涉及文本的设置(例如,t、at、tv)中,突出了内积对归一化文本嵌入的适用性。相比之下,切换到余弦相似度进行声学(A-IP)或视觉(V-IP)索引会降低准确性,其中 V-IP 显示出最显着的下降,尤其是在纯视觉输入下。这些发现表明,L2距离对于通常保留重要震级信息的声学和视觉特征更有效。

图 4:不同索引构建方法对模型性能的影响,在 IEMOCAP(四类)任务上进行评估。折线图显示了 WA 和 UA 在六种缺失模态条件下的变化及其平均值。
5 结 论
为了提高对困难样本的敏感性并增强缺失模态多模态情感识别的鲁棒性,我们提出了 HARDY-MER,这是一种将检索增强学习与课程学习相结合的新框架。我们引入了一种基于重建误差和跨模态互信息的多视角难度评估机制,并设计了一种基于检索的动态课程学习策略。这涉及从特定模态特征库中检索语义相关的支持样本,检索量由样本难度自适应地确定。由此产生的难度感知课程指导模型训练。实验表明,HARDY-MER 的性能优于最先进的方法,据我们所知,它是第一个在这种环境中整合检索和课程学习的方法。未来的工作将探索将 HARDY-MER 扩展到大规模预训练多模态模型,以在具有挑战性的条件下提高鲁棒性。
如何学习大模型 AI ?
我国在AI大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着Al技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国Al产业的创新步伐。加强人才培养,优化教育体系,国际合作并进,是破解困局、推动AI发展的关键。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

2025最新大模型学习路线
明确的学习路线至关重要。它能指引新人起点、规划学习顺序、明确核心知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。
对于从来没有接触过AI大模型的同学,我帮大家准备了从零基础到精通学习成长路线图以及学习规划。可以说是最科学最系统的学习路线。

针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。
大模型经典PDF书籍
新手必备的大模型学习PDF书单来了!全是硬核知识,帮你少走弯路!

配套大模型项目实战
所有视频教程所涉及的实战项目和项目源码等

博主介绍+AI项目案例集锦
MoPaaS专注于Al技术能力建设与应用场景开发,与智学优课联合孵化,培养适合未来发展需求的技术性人才和应用型领袖。


这份完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】

为什么要学习大模型?
2025人工智能大模型的技术岗位与能力培养随着人工智能技术的迅速发展和应用 , 大模型作为其中的重要组成部分 , 正逐渐成为推动人工智能发展的重要引擎 。大模型以其强大的数据处理和模式识别能力, 广泛应用于自然语言处理 、计算机视觉 、 智能推荐等领域 ,为各行各业带来了革命性的改变和机遇 。

适合人群
- 在校学生:包括专科、本科、硕士和博士研究生。学生应具备扎实的编程基础和一定的数学基础,有志于深入AGI大模型行业,希望开展相关的研究和开发工作。
- IT行业从业人员:包括在职或失业者,涵盖开发、测试、运维、产品经理等职务。拥有一定的IT从业经验,至少1年以上的编程工作经验,对大模型技术感兴趣或有业务需求,希望通过课程提升自身在IT领域的竞争力。
- IT管理及技术研究领域人员:包括技术经理、技术负责人、CTO、架构师、研究员等角色。这些人员需要跟随技术发展趋势,主导技术创新,推动大模型技术在企业业务中的应用与改造。
- 传统AI从业人员:包括算法工程师、机器视觉工程师、深度学习工程师等。这些AI技术人才原先从事机器视觉、自然语言处理、推荐系统等领域工作,现需要快速补充大模型技术能力,获得大模型训练微调的实操技能,以适应新的技术发展趋势。

课程精彩瞬间
大模型核心原理与Prompt:掌握大语言模型的核心知识,了解行业应用与趋势;熟练Python编程,提升提示工程技能,为Al应用开发打下坚实基础。
RAG应用开发工程:掌握RAG应用开发全流程,理解前沿技术,提升商业化分析与优化能力,通过实战项目加深理解与应用。
Agent应用架构进阶实践:掌握大模型Agent技术的核心原理与实践应用,能够独立完成Agent系统的设计与开发,提升多智能体协同与复杂任务处理的能力,为AI产品的创新与优化提供有力支持。
模型微调与私有化大模型:掌握大模型微调与私有化部署技能,提升模型优化与部署能力,为大模型项目落地打下坚实基础。
顶尖师资,深耕AI大模型前沿技术
实战专家亲授,让你少走弯路

一对一学习规划,职业生涯指导
- 真实商业项目实训
- 大厂绿色直通车
人才库优秀学员参与真实商业项目实训
以商业交付标准作为学习标准,具备真实大模型项目实践操作经验可写入简历,支持项目背调
大厂绿色直通车,冲击行业高薪岗位
文中涉及到的完整版的大模型 AI 学习资料已经上传优快云,朋友们如果需要可以微信扫描下方优快云官方认证二维码免费领取【保证100%免费】







2万+

被折叠的 条评论
为什么被折叠?



