自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 收藏
  • 关注

原创 Life Long Learning(李宏毅)机器学习 2023 Spring HW14 (Boss Baseline)

神经网络的典型应用场景是,我们有一个固定的数据集,在其上训练并获得模型参数,然后将模型应用于特定任务而无需进一步更改模型参数。然而,在许多实际工程应用中,常见的情况是系统可以不断地获取新数据,例如 Web 应用程序中的新用户数据或自动驾驶中的新驾驶数据。这些新数据需要被纳入训练集以增强模型的性能。这被称为终身学习。人工智能终身学习面临哪些挑战?似乎通过不断更新其数据和相应的网络参数就可以实现终身学习。然而,事实并非如此简单。一个关键障碍是灾难性遗忘。

2025-01-11 20:47:03 1134

原创 Network Compression(李宏毅)机器学习 2023 Spring HW13 (Boss Baseline)

是的,对于同一个模型,结构化剪枝和非结构化剪枝在推理速度上是有差异的。在卷积神经网络中,深度可分卷积通过将传统的卷积操作分解为两个较小的操作(深度卷积和逐点卷积),有效地降低了计算量和参数数量,这正是低秩近似的一种应用。其目标是将教师模型的“知识”转移到学生模型,使得较小的模型在保持高性能的同时,在计算和内存方面更加高效。对于网络剪枝,有一个彩票假设理论,该理论指出:“密集的、随机初始化的前馈网络中包含子网络(中奖票),当这些子网络单独训练时,其测试精度可以在类似的迭代次数下达到与原始网络相当的水平。

2025-01-11 00:40:11 1028

原创 Reinforcement Learning (李宏毅) 机器学习 2023 Spring HW12 (Boss Baseline)

强化学习是一种机器学习方法,它训练智能体在环境中采取行动,以最大化累积奖励。智能体通过试错与环境互动,学习哪些行动会带来奖励(正反馈),哪些行动会导致惩罚(负反馈)。通过不断地学习和调整策略,智能体逐渐学会如何在特定环境中做出最优决策,以达到最终目标。与监督学习不同,强化学习不需要预先标注的数据,而是通过与环境的互动自主学习。强化学习的应用非常广泛,比如:游戏AI: 训练AI玩各种游戏,例如围棋、Atari游戏等。机器人控制: 控制机器人完成各种任务,例如行走、抓取物体等。

2025-01-08 23:26:40 1051

原创 Domain Adaptation(李宏毅)机器学习 2023 Spring HW11 (Boss Baseline)

领域适配是一种迁移学习方法,适用于源领域和目标领域数据分布不同但学习任务相同的情况。具体而言,我们在源领域(通常有大量标注数据)训练一个模型,并希望将其应用于目标领域(通常只有少量或没有标注数据)。然而,由于这两个领域的数据分布不同,模型在目标领域上的性能可能会显著下降。领域适配技术的目标是通过对模型进行适配,缩小源领域与目标领域之间的差距,从而提升模型在目标领域的表现。以数字识别为例,如果我们的源数据是灰度图像,并且在这些数据上训练模型,我们可以预期模型会取得相当不错的效果。

2025-01-08 19:15:19 1042

原创 Attack(李宏毅)机器学习 2023 Spring HW10 (Boss Baseline)

对抗攻击是指一种故意欺骗机器学习模型(尤其是深度学习模型)的技术,通过向模型提供经过细微修改的输入数据,从而导致模型做出错误的预测或分类。这些攻击利用了模型在训练和推理过程中的漏洞,从而揭示了模型在鲁棒性方面的弱点。以图像分类为例,假设我们已经训练了一个图像识别模型,可以对图像进行分类。为了攻击这个模型,我们在图像中加入一小部分几乎不可察觉的噪声。这张带噪声的图像被输入到模型中,我们期望模型将其错误分类。

2025-01-07 22:50:33 1014

原创 Explainable AI(李宏毅)机器学习 2023 Spring HW9 (Boss baseline)

及模型 [bert - based - cased] 分析以下句子: The police officer is popular with the residents because she is very generous and kind. 对于模型中 12 层,每层中的第 12 个 attention head (i.e. layer 1 head 12, layer 2 head 12, layer 3 head 12,..., layer 12 head 12),下列哪一个功能可能存在?

2025-01-07 21:43:10 858

原创 Autoencoder(李宏毅)机器学习 2023 Spring HW8 (Boss Baseline)

自动编码器进行图像生成的核心思想是,当模型学会将图像编码为紧凑的潜在空间后,它也可以将这种表示解码,以重建或生成新图像。由于块之间的加法操作,连续块的特征图变得相似,导致学习到的新信息较少,同时一些早期块中的可重用信息在后续块中被遗忘。概率潜在空间: 与普通自编码器不同,变分自编码器(VAE)学习潜在空间的概率分布,通过从分布中采样来生成新的、有意义的样本。模糊重构: 由于潜在空间中引入了随机性,VAE通常比普通自编码器产生更模糊的重构,这种随机性在潜在表示上做出了平滑的折衷,从而牺牲了图像的清晰度。

2025-01-07 20:43:02 887

原创 BERT(李宏毅)机器学习 2023 Spring HW7 (Boss Baseline)

自监督学习是一种无监督学习技术,通过数据本身的结构或特征生成标签,从而使模型能够学习。与传统的监督学习需要手动标注数据不同,自监督学习不依赖人工标注的数据。相反,它通过设计任务自动从数据中创建学习信号。自监督学习的核心思想是利用输入数据本身进行监督,通过构造代理任务(也称为预训练任务),使模型能够学习数据的有用表示。这些预训练任务的目的是教会模型数据中的有价值模式或结构,而无需使用手动标注的数据。

2025-01-06 19:12:26 732

原创 Generative Model(李宏毅)机器学习 2023 Spring HW6(Boss Baseline)

而DDIM的逆向过程是确定性的,这意味着它可以跳过许多步骤,在更少的迭代中生成高质量的图像。第二个组件是生成模型,通常是扩散模型,它接收噪声和来自文本编码器的输出,生成一个中间结果,通常是图像的压缩版本。逆向过程是确定性的并且是隐式建模的,这意味着与DDPM不同,DDIM不需要在每一步进行采样,而是通过修改调度来在较少的时间步中生成图像。去噪过程从一张完全噪声的图像开始,逐步减少噪声,直到生成一张清晰的图像。生成器的目标是创造尽可能真实的数据(如图像),而判别器的任务是判断数据是真实的还是由生成器生成的。

2025-01-06 08:05:10 1426

原创 Transformer(李宏毅)机器学习 2023 Spring HW5 (Boss Baseline)

许多机器学习任务,如语音识别、机器翻译与语音翻译等,都有一个共同的特点:它们都需要将一个输入序列转换为一个输出序列,并且输入序列和输出序列的长度通常是不固定的。Seq2Seq(Sequence-to-Sequence)模型正是为了解决这类问题而设计的。Seq2Seq 模型是一种用于处理序列数据的深度学习模型,主要用于将一个输入序列转换为另一个输出序列。传统的Seq2Seq模型主要基于循环神经网络(RNN),特别是长短期记忆网络(LSTM)和门控循环单元(GRU)。​。

2025-01-04 05:02:01 1060

原创 Self-Attention(李宏毅)机器学习 2023 Spring HW4 (Boss Baseline)

该方法的核心思想是在计算键和值时,引入两个线性投影矩阵。例如,在语言处理中,“狗咬人”和“人咬狗”的词嵌入是相同的,如果没有位置信息,模型就无法区分这两个句子截然不同的含义。神经网络的输出也呈现出多样性,常见的输出形式包括用于回归任务的单一输出,或者用于分类任务的类别标签,用于表示数据的特征或嵌入的向量,用于生成序列数据的序列,或者图结构等。与以往的加性间隔方法不同,本文提出的方法通过对特征和权重的归一化,确保了间隔能够有效地导致较大的角度间隔,从而增强了类别之间的区分性,进一步提高了模型的性能和稳定性。

2025-01-03 04:54:26 1162

原创 Convolutional Neural Network(李宏毅)机器学习 2023 Spring HW3 (Boss Baseline)

通常,网络的输入是一个向量。因此,在将表示图像的 3D 张量馈送到网络之前,需要将其“扁平化”。当使用向量作为全连接网络的输入时,特征向量可能会非常长。由于每个神经元都需要针对输入向量中的每个值分配一个权重,因此如果输入向量是高维的并且层包含许多神经元,则网络的第一层将需要非常大量的权重。虽然拥有更多参数可以使模型更加灵活和强大,但也会显着增加过拟合的风险。模型越灵活,就越容易出现过拟合。为了解决这个问题,全连接层并非总是用于图像识别,因为图像的本质并不需要每个神经元都对每个输入维度具有权重。

2025-01-03 04:08:49 969

原创 Recurrent Neural Network(李宏毅)机器学习 2023 Spring HW2 (Boss Baseline)

RNN是一种适合处理序列数据的神经网络,可以通过隐藏层状态保存序列信息。它通过循环结构更新隐藏状态,捕获时间序列的依赖关系。其中:​:当前时间步隐藏状态​:上一时间步隐藏状态​:当前输入:权重和偏置:激活函数(如tanh或ReLU)Recurrent Neural Network (source: https://speech.ee.ntu.edu.tw/~tlkagk/courses/ML_2016/Lecture/RNN%20(v2).pdf)标题。

2025-01-03 03:47:00 957

原创 Regression(李宏毅)机器学习 2023 Spring HW1 (Boss Baseline)

深度学习是一种基于人工神经网络的机器学习方法。它通过多层架构从大型数据集中自动提取特征,用于模式识别和决策。深度学习在图像识别、自然语言处理和语音识别等领域取得了显著成功。

2025-01-03 01:53:24 764 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除