- 博客(6)
- 收藏
- 关注
原创 今日课堂总结
nn.functional中的函数,写法一般为nn.funtional.xxx,如nn.funtional.linear、nn.funtional.conv2d、nn.funtional.cross_entropy等。继承nn.Module基类构建模型,又使用相关模型容器(nn.Sequential,nn.ModuleList,nn.ModuleDict等)进行封装。nn.Module,写法一般为nn.Xxx,如nn.Linear、nn.Conv2d、nn.CrossEntropyLoss等。
2025-02-24 16:41:07
270
原创 今日课堂总结
AlexNet由⼋层组成:五个卷积层、两个全连接隐藏层和一个全连接输出层。表示学习:如果有一种算法可以自动地学习出有效的特征,并提高最终机器学习模型的性能,那么这种学习就可以叫作表示学习。AlexNet的架构与LeNet相似,但使⽤了更多的卷积层和更多的参数来拟合大规模的ImageNet数据集。• 今天,AlexNet已经被更有效的架构所超越,但它是从浅层⽹络到深层网络的关键一步。每个卷积层使⽤5×5卷积核和一个sigmoid激活函数。每个通道都有一个卷积核,结果是所有通道卷积结果的和。
2025-02-21 10:17:47
243
原创 今日课堂总结
表示学习:如果有一种算法可以自动地学习出有效的特征,并提高最终机器学习模型的性能,那么这种学习就可以叫作表示学习。不管检测对象出现在图像中的哪个位置,神经网络的前面几层都应该对相同的图像区域具有相似的反应。神经网络的前面几层应该只探索输入图像中的局部区域,而不过度在意图像中相隔较远的区域的关系。浅层学习:不涉及特征学习,其特征主要靠人工经验或特征转换方法来抽取。卷积层对输入和卷积核进行互相关运算,并在添加标量偏置之后产生输出。今日学习了对多层感知机的表格数据处理,并对应样本,列对应特征。
2025-02-20 10:05:07
208
原创 今日课堂总结
刚才登场的h(x)函数会将输入信号的总和转换为输出信号,这种函数一般称为激活函数(activation function)。(3) 激活函数的导函数的值域要在一个合适的区间内,不能太大也不能太小,否则会影响训练的效率和稳定性。激活函数在神经元中非常重要的。如“激活”一词所示,激活函数的作用在于决定如何来激活输入信号的总和。(2) 激活函数及其导函数要尽可能的简单,有利于提高网络计算效率。感知机的局限性:感知机的局限性就是只能表示由一条直线分割的空间。(1) 连续并可导(允许少数点上不可导)的非线性函数。
2025-02-19 16:50:41
300
原创 今日课堂总结
2:销售价格是关键因素的加权总和:w称为权重,决定了每个特征对我们预测值的影响b称为偏置给予 n 维输入,线性方法有 n 个权重和偏差:输出是输入的加权总和:点积形式:矩阵-向量乘法表示:矢量化版本:=<w,x>+b损失函数:衡量预估质量损失函数能够量化目标的实际值与预测值之间的差距,例如房屋售价和估价。比如,对于某个输入图像,预测是图中的数字0到9中的哪一个的问题(10类别分类问题),将输出层的神经元设定为10个。假设 1:影响房价的关键因素:卧室数目,卫浴数目和房子大小,分别用表示假设。
2025-02-18 10:48:23
312
原创 今日课堂总结
5.优化算法 当我们获得了一些数据源及其表示、一个模型和一个合适的损失函数,接下来就需要一种算法,它能够搜索出最佳参数,以最⼩化损失函数。深度学习中,大多流行的优化算法通常基于一种基本方法——梯度下降(gradient descent) 在每个步骤中,梯度下降法都会检查每个参数,看看如果仅对该参数进行少量变动,训练集损失会朝哪个方向移动。在机器学习中,我们需要定义模型的优劣程度的度量,这个度量在大多数情况是“可优化”的,这被称之为目标函数。仅仅拥有海量的数据是不够的,还需要正确的数据。
2025-02-17 18:43:06
260
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅