- 博客(6)
- 收藏
- 关注
原创 Datawhale X 李宏毅苹果书 AI夏令营 深度学习入门Task3
如果更复杂的模型在训练集上的损失反而高于较简单的模型,且这种差异不能通过模型偏差来解释(因为理论上更复杂的模型应该能够轻松达到或超越较简单模型的效果),那么这通常表明是优化问题导致的。针对于不匹配的问题,给出的例子提到了一个从2021年1月1日开始的预测模型,其中红色的线表示真实的数字,蓝色的线表示预测的结果。在书中给出的例子中,如果模型的函数集合太小,无法包含任何能显著降低损失的函数,那么无论怎么调整模型的参数(θ),都无法使损失降低到理想水平。过拟合的一个原因是模型过于灵活,能够拟合训练数据中的噪声。
2024-09-02 08:48:00
469
原创 Datawhale X 李宏毅苹果书 AI夏令营 深度学习入门Task2
尽管这个模型在训练数据上展现出了良好的拟合能力,通过调整权重和偏置参数(w和b),成功地将损失降低到了较低的水平,但在面对未知数据时,其预测性能却显著下降。具体来说,模型主要依赖于前一天的观看次数来预测隔天的观看人次,这种方法在捕捉数据的变化趋势上显得过于简单,未能充分考虑到数据中存在的复杂性和周期性特征。因此,引入了一个新的模型,模型不仅考虑了当天的观看人次,还综合考虑了前7天的观看人次,并通过赋予不同的权重来反映这些天数对预测结果的不同影响,这种模型称为。针对这一部分,书中提到了。
2024-08-30 19:24:47
253
原创 Datawhale X 李宏毅苹果书 AI夏令营 深度学习入门Task1
对于单个参数w,从随机初始点开始,计算损失对w的偏导数(斜率),根据斜率正负调整w值以减小损失。它们作为未知的参数,往往来自于对这个问题本质上的了解,需要领域知识(domain knowledge)的支撑。通过比较模型预测值与实际值之间的差异,我们可以评估模型参数的优劣,并据此调整参数以最小化损失函数,从而改进模型的预测性能。主要是输出数值和标量,在苹果书中,给出的例子是根据前日的PM2.5推出当日的PM2.5的数值。苹果书中,以视频的点击次数预测为例,将机器学习找函数的过程,分成了3个步骤来阐述。
2024-08-27 12:54:44
422
原创 Datawhale X 魔搭 AI夏令营 AIGC文生图方向Task3笔记
LoRA引入了两个矩阵A和B,如果参数W的原始矩阵的大小为d × d,则矩阵A和B的大小分别为d × r和r × d,其中r要小得多(通常小于100)。LoRA的最大的优点是,与微调相比,训练的参数更少,但是却能获得与微调基本相当的性能。ComfyUI-AnimateDiff-Evolved改进了ComfyUI 的AnimateDiff集成,以及可在 AnimateDiff 之外使用的被称为“进化采样”的高级采样选项。在完成这一部分内容的学习之后,本期夏令营的主要学习内容就大致完成了。
2024-08-17 03:30:13
845
原创 Datawhale X 魔搭 AI夏令营 AIGC文生图方向Task2笔记
鉴于各模型训练所依赖的数据集具有有限性和差异性,这限制了模型能够准确匹配和表达的图像描述与特征的范围。因此,在图像生成的风格多样性、具体对象的表现力以及与现实世界的吻合度等方面,不同模型间会展现出显著的差异,且可能产生与实际情况不符的生成内容。这一过程涉及对大量图像描述与图像本身特征的联合学习,旨在建立两者之间的精确对应关系,并将这些知识内化为模型的记忆体系。当外界提出具体需求时,即通过输入描述性文本,模型能够激活其内部存储的特征表征,根据文本内容复现并组合相应的图像特征,最终输出符合需求的图像。
2024-08-13 16:30:44
446
原创 Datawhale X 魔搭 AI夏令营 AIGC文生图方向Task1笔记
如果步长足够小,就可以确保在序列末尾获得的图像可以通过对噪声进行采样的相同高斯函数来近似——这允许我们通过从相同的分布中采样来生成一幅全新的图像然后将其传递给我们训练过的模型 N 次。文生图主要以SD系列基础模型为主,以及在其基础上微调的lora模型和人物基础模型等。扩散(Diffusion)模型是能够从潜在变量合成高质量图像的生成模型。Datawhale 2024年AI夏令营的第四期学习活动聚焦于“AIGC”(人工智能生成内容)的前沿领域,特别安排了“图 1 扩散(Diffusion)过程的图示。
2024-08-11 02:26:22
476
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅