- 博客(15)
- 收藏
- 关注
原创 3.28笔记
Scala是一种多范式的编程语言,其设计的初衷是要集成面向对象编程和函数式编程的各种特性。scala中没有提供++、--操作符,我们只能使用+和-,比如num = 1,num ++是错误的,必须写做num += 1。scala的算术操作符与java的算术操作符也没有什么区别,比如+、-、*、/、%等,以及&、|、^、>>、<<等。但是,在scala中,这些操作符其实是数据类型的方法,比如1 + 1,可以写做1.+(1)Raw:除了对字面值中的字符不做编码外,raw 插值器与 s 插值器在功能上是相同的。
2025-03-28 10:03:47
176
原创 3.6笔记
说明,model.train()与model.eval()的使用如果模型中有BN(Batch Normalization)层和Dropout,需要在训练时添加model.train(),在测试时添加mode1,exa10)。定义损失函数可以通过自定义方法或使用PvIorch内署的损失函数,如回归使用的loss fimem, SELoss0),分类使用的m.BCELoss等损失函数,更多内容可。Pytoch常用的优化方法都封装在torch.optin里面,其设计很灵活,可以扩展为自定义的优化方法。
2025-03-06 11:15:23
218
原创 3.3笔记
横坐标false positive rate(FPR)FPR=FP/(FP+TN)正类中实际负实例占所有负实例的比例。纵坐标true positive rate(TPR):TPR=TP/(TP+FN)正类中实际正实例占所有正实例的比例。深度学习最重要的属性,计算最长路径的卷积层+全连接层数量。主对角线的元素之和为正确分类的样本数,其余元素之和为错误分类的样本数。对于k分类问题,混淆矩阵为k*k的矩阵,元素Cij表示第i类样本被分类器判定为第j类的数量。有监督方法:平移、翻转、亮度、对比度、裁剪、缩放等。
2025-03-03 17:14:17
389
原创 2.28笔记
可以用来表示模型的精度,即模型识别正确的个数/样本的总个数。一般情况下,模型的精度越高,说明模型的效果越好。准确率(Precision):又称为查准率,表示在模型识别为正类的样本中,真正为正类的样本所占的比例。召回率(Recall):又称为查全率,表示模型正确识别出为正类的样本的数量占总的正类样本数量的比值。FN(False negative,假反例)——将正类预测为反类数。FP(False postive,假正例)——将反类预测为正类数。将不同的图像,划分到不同的类别标签,实现最小的分类误差。
2025-02-28 09:57:44
162
原创 2.27笔记
cd到logs目录所在的同级目录,在命令行输入如下命令,logdir等式右边可以是相对路径或绝对路径。Embedding用于可视化高维数据的低维表示。例如,t-SNE或 PCA 降维后的词向量或特征。1)导入tensorboard,实例化SummaryWriter类,指明记录日志路径等信息。ONNX Graph用于可视化 ONNX 模型的计算图结构。Scalar用于可视化单一数值,例如损失值、准确率等随训练过程的变化。Text用于可视化文本数据,例如模型生成的文本或训练日志。
2025-02-28 09:57:07
189
原创 2.26笔记
drop_last dataset 中的数据个数可能不是 batch_size的整数倍,drop_last为True会将多出来不足一个batch的数据丢弃。pin_memory 是否将数据保存在锁页内存(pin memory区),其中的数据转到GPU会快一些。collate_fn 如何将多个样本数据拼接成一个batch,一般使用默认的拼接方式即可。num_workers 使用多进程加载的进程数,0代表不使用多进程。相关参数介绍如下所示。Pytorch数据处理工具。
2025-02-27 10:23:56
159
原创 2.25笔记
继承nn.Module基类构建模型,又使用相关模型容器(nn.Sequential,nn.ModuleList,nn.ModuleDict等)进行封装。1.利用可变参数该方法构建时不能给每个层指定名称,如果需要给每个层指定名称,可使用add_module方法或OrderedDict方法。Pytorch神经网络工具箱构建模型继承nn.Module基类构建模型。1.使用nn.Sequential模型容器.使用nn.Sequential按层顺序构建模型。继承nn.Module基类并应用模型容器构建模型。
2025-02-25 17:16:17
243
原创 2.24笔记
构建神经网络的主要工具nn.Module①继承自Module类,可自动提取可学习的参数。②适用于激活函数、池化层。构建神经网络的主要工具-nn.functionalnn.Module,写法一般为nn.Xxx,如nn.Linear、nn.Conv2d、nn.CrossEntropyLoss等。nn.functional中的函数,写法一般为nn.funtional.xxx,如nn.funtional.linear、nn.funtional.conv2d、nn.funtional.cross_entropy等。
2025-02-24 17:16:39
224
原创 2.21笔记
通过构建具有一定“深度”的模型,可以让模型来自动学习好的特征表示(从底层特征,到中层特征,再到高层特征),从而最终提升预测或识别的准确性。表示学习:如果有一种算法可以自动地学习出有效的特征,并提高最终机器学习模型的性能,那么这种学习就可以叫作表示学习。AlexNet的架构与LeNet相似,但使⽤了更多的卷积层和更多的参数来拟合大规模的ImageNet数据集。不同次数的重复VGG块,可获得不同的架构,例如VGG-16,VGG-19,......• 更大更深的AlexNet(重复的VGG块)
2025-02-21 09:30:47
228
原创 2.20笔记
通过构建具有一定“深度”的模型,可以让模型来自动学习好的特征表示(从底层特征,到中层特征,再到高层特征),从而最终提升预测或识别的准确性。• AlexNet的架构与LeNet相似,但使⽤了更多的卷积层和更多的参数来拟合大规模的ImageNet数据集。神经网络的前面几层应该只探索输入图像中的局部区域,而不过度在意图像中相隔较远的区域的关系。不同次数的重复VGG块,可获得不同的架构,例如VGG-16,VGG-19,......步幅是每次滑动核窗口时的行/列的步长,可以成倍的减少输出形状。
2025-02-20 10:09:27
168
原创 2.19笔记
神经网络在外界输入样本的刺激下不断改变网络的连接权值乃至拓扑结构,以使网络的输出不断地接近期望的输出。再历年考试真题取得好成绩(训练误差)并不能保证未来考试成绩更好(泛化误差)感知机的局限性:感知机的局限性就是只能表示由一条直线分割的空间。b称为偏置:偏置是调整神经元被激活的容易程度参数。验证数据集:一个用来评估模型好坏的数据集。Vs. Softmax:输出的概率,多个分类。输入样本--输入层--各隐藏层--输出层。w称为权重:控制输入信号的重要性的参数。训练误差:模型在训练数据集上的误差。
2025-02-19 16:51:29
287
原创 图像识别笔记2.18
神经网络在学习时找到最优的参数(权重和偏置)——指损失函数取最小值时的参数。我们不知道他在何处能取得最小值,所以使用梯度来寻找函数的最小值的方法就是梯度法。收集多个数据点以训练参数(如 在过去6个月内出售的房屋),这个叫做训练数据集。严格的讲,梯度指示的反向是各点处的函数值减小最多的方向。梯度下降通过不断的沿着反梯度方向更新参数求解。使用Softmax操作得到每个类的预测置信度。小批量随机梯度下降是深度学习默认的求解算法。Softmax回归是一个多类分类模型。两个重要的超参数是批量大小和学习率。
2025-02-18 10:41:54
532
原创 图像识别笔记2.17
1.从一个随机初始化参数的模型开始,这个模型基本没有“智能”2.获取一些数据样本(例如,音频片段以及对应的是或否标签)3.调整参数,使模型在这些样本中表现得更好;4.重复第(2)步和第(3)步,直到模型在任务中的表现令人满意。3.一个目标函数(objective function),用来量化模型的有效性;人工智能学科:人工智能是研究,开发用于模拟,延伸和拓展人工智能的方法,技术和应用系统的一门技术科学。人工智能:用人工的方法在机器上实现的智能。2.如何转换数据的模型(model)
2025-02-17 18:42:15
148
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅