- 博客(28)
- 收藏
- 关注
原创 web开发(1)-基础
http中四种方法:get 请求,比如直接输入urlpost 提交数据,会把数据放在body里面delete 删除put/patch 修改浏览器做的就是把network中response的返回的信息解释渲染出来http协议中有两部分,一部分是头(header),一部分是体(body)header里面的request header和response header这里发送请求使用的是get,但是response header中表示只接受put。
2024-10-01 10:22:33
1248
原创 python日志记录与命令行交互
日志记录器(Logger)创建了一个日志记录器对象,是这个记录器的名称。日志级别(Level)设置了日志记录器的级别为DEBUG,这意味着所有DEBUG及以上级别的日志消息都会被处理。日志格式器(Formatter)创建了一个日志格式器对象,定义了日志消息的格式。在这个格式中,表示时间戳,%(name)s表示记录器的名称,表示日志级别,表示日志消息。文件处理器(FileHandler)创建了一个文件处理器对象,指定了日志文件的名称为。设置了文件处理器的日志级别为INFO,这意味着所有INFO。
2024-09-17 20:16:10
1305
2
原创 30天pandas挑战
雇员 1 有三次进出: 有两次发生在 2020-11-28 花费的时间为 (32 - 4) + (200 - 55) = 173, 有一次发生在 2020-12-03 花费的时间为 (42 - 1) = 41。在 2020-12-8,丰田(toyota)有领导者 = [0, 1] 和合伙人 = [0, 1, 2] ,同时本田(honda)有领导者 = [1, 2] 和合伙人 = [1, 2]。请注意,你可以在方括号内指定的字符范围的数量没有限制,您可以添加想要匹配的其他字符或范围。\.:表示句点字符。
2024-09-06 09:01:44
1329
原创 笔记小结:《利用python进行数据分析》之层次化索引
注意,尽管索引 'b' 存在,但在数据集中并没有索引为 ('b', 2) 的元素,因此在输出结果中没有显示。这里的操作是选择所有第一级索引(即大写字母 'a', 'b', 'c', 'd')下,第二级索引为 2 的所有数据。:这个操作是使用索引的切片功能,选择了从'b'到'c'(包含'b'和'c')的所有元素。输出结果展示了索引在'b'和'c'之间的所有Series元素。人们经常想要将DataFrame的一个或多个列当做行索引来用,或者可能希望将行索引变成DataFrame的列。
2024-08-11 18:52:49
1104
原创 笔记:PyTorch文档阅读(3)torchvision.models
以下是pytorch中文文档原文,根据自己的需要,可以选择合适的模型直接下载预训练好的模型,再调整最后一节全连接层输出。这样可以快速收敛,并且不用自己搭建网络。
2024-08-09 08:23:17
1181
原创 深度学习实战(1):树叶分类pytorch
Classify Leaves | Kaggle上面是数据集将标签转成类别自定义数据集准备工作画图、计算loss、累加器函数等,再之前文章中已经介绍过的,不必一句一句弄明白模型构建或载入如果是第一次训练则可以下载再ImageNet上预训练好的resnet18或者更大的模型,如果之前已经训练有保存好的模型则可以接着训练模型训练控制一批的训练多个epochtransfroms和dataloader训练1-4轮: 这个就是接
2024-08-08 08:14:43
1267
原创 笔记:PyTorch文档阅读(2)序列化语义即保存模型
第一种推荐的方法,即只保存和加载模型参数,只涉及到模型的权重和偏置等参数,而不包括模型的架构。在加载模型时,需要先实例化模型架构,然后再将保存的参数加载到这个架构中。指的是将数据结构或对象的状态转换为可以存储或传输的格式的过程,以及将这些数据重新转换回原始状态的过程。然而,在这种情况下,序列化的数据被绑定到特定的类和固定的目录结构,所以当在其他项目中使用时,或者在一些严重的重构器之后它可能会以各种方式break。这样,模型的架构和参数就都恢复了,模型可以用于进一步的推理或继续训练。将它们保存到文件中。
2024-08-05 08:42:33
404
原创 笔记:VGGnet的实现
本文为B站UP图片分类课程学习笔记,用于记录学习历程和个人复习程序共分为三部分:model,train,predict。model.py用于存放模型,train.py用于存放训练时的程序,predict.py用于存放预测的程序,vgg16Net.pth为训练时val_accurate最高的模型参数,class_indices.json为类别索引映射。注意:如要使用本文进行训练,需先按照在指定位置放好图片数据集方可进行训练。
2024-07-30 10:17:24
1298
2
原创 笔记小结:现代卷积神经网络之批量归一化
训练深层神经网络是十分困难的,特别是在较短的时间内使他们收敛更加棘手。本节将介绍批量规范化(batch normalization),这是一种流行且有效的技术,可持续加速深层网络的收敛速度。
2024-07-22 08:15:43
681
原创 笔记:现代卷积神经网络之VGG
然AlexNet证明深层神经网络卓有成效,但它没有提供一个通用的模板来指导后续的研究人员设计新的网络。在下面的几个章节中,我们将介绍一些常用于设计深层神经网络的启发式概念。与芯片设计中工程师从放置晶体管到逻辑元件再到逻辑块的过程类似,神经网络架构的设计也逐渐变得更加抽象。研究人员开始从单个神经元的角度思考问题,发展到整个层,现在又转向块,重复层的模式。使用块的想法首先出现在牛津大学的视觉几何组(visual geometry group)的VGG网络中。
2024-07-21 08:03:21
1948
原创 笔记:现代卷积神经网络之AlexNet
2012年,AlexNet横空出世。它首次证明了学习到的特征可以超越手工设计的特征。它一举打破了计算机视觉研究的现状。AlexNet使用了8层卷积神经网络,并以很大的优势赢得了2012年ImageNet图像识别挑战赛。AlexNet和LeNet的架构非常相似。注意,在这里提供的是一个稍微精简版本的AlexNet,去除了当年需要两个小型GPU同时运算的设计特点。
2024-07-20 08:00:46
2352
原创 笔记:卷积神经网络之LeNet
LeNet,它是最早发布的卷积神经网络之一,因其在计算机视觉任务中的高效性能而受到广泛关注。这个模型是由AT&T贝尔实验室的研究员Yann LeCun在1989年提出的(并以其命名),目的是识别图像中的手写数字。当时,Yann LeCun发表了第一篇通过反向传播成功训练卷积神经网络的研究,这项工作代表了十多年来神经网络研究开发的成果。当时,LeNet取得了与支持向量机(support vector machines)性能相媲美的成果,成为监督学习的主流方法。
2024-07-19 15:18:07
1197
原创 笔记小结:卷积神经网络之池化层
在这两种情况下,与互相关运算符一样,汇聚窗口从输入张量的左上角开始,从左往右、从上往下的在输入张量内滑动。在汇聚窗口到达的每个位置,它计算该窗口中输入子张量的最大值或平均值。与卷积层一样,汇聚层也可以改变输出形状。下面,我们用深度学习框架中内置的二维最大汇聚层,来演示汇聚层中填充和步幅的使用。这意味着汇聚层的输出通道数与输入通道数相同。与卷积层类似,汇聚层运算符由一个固定形状的窗口组成,该窗口根据其步幅大小在输入的所有区域上滑动,为固定形状窗口(有时称为。的汇聚窗口,那么默认情况下,我们得到的步幅形状为。
2024-07-18 08:14:38
1200
原创 笔记小结:卷积神经网络之多输入多输出通道
彩色图像具有标准的RGB通道来代表红、绿和蓝,需要三个通道表示,故而只有单输入单输出是不够的。对于单个输入和单个输出通道的简化例子,可以将输入、卷积核和输出看作二维张量。当我们添加通道时,我们的输入和隐藏的表示都变成了三维张量。例如,每个RGB输入图像具有3×ℎ×𝑤的形状。我们将这个大小为3的轴称为通道。我们可以构造与上图中的值相对应的输入张量X和核张量K,以验证互相关运算的输出。
2024-07-17 08:28:44
867
原创 笔记小结:卷积神经网络之步幅与填充
假设以下情景: 有时,在应用了连续的卷积之后,我们最终得到的输出远小于输入大小。这是由于卷积核的宽度和高度通常大于1所导致的。比如,一个240×240像素的图像,经过10层5×5的卷积后,将减少到200×200像素。如此一来,原始图像的边界丢失了许多有用信息。而填充是解决此问题最有效的方法;有时,我们可能希望大幅降低图像的宽度和高度。例如,如果我们发现原始的输入分辨率十分冗余。步幅则可以在这类情况下提供帮助。
2024-07-16 08:29:07
777
原创 笔记小结:卷积神经网络之卷积核的实现
在上我们,我们给出了卷积核,一个很容易想到的问题是给定XY能否学习出卷积核,答案是肯定的。在10次迭代之后,误差已经降到足够低。现在我们来看看我们[可以发现,1表示由1到0的边缘,0表示有0到1 的边缘。中间四列为黑色(0),其余像素为白色(1)。可以看到,与之间我们设置的结果很接近。实在是行云流水般丝滑)
2024-07-15 08:09:53
621
原创 笔记小结:神经网络中的层与块
用模型参数声明层。这里,我们声明两个全连接的层# 调用MLP的父类Module的构造函数来执行必要的初始化。# 这样,在类实例化时也可以指定其他函数参数,例如模型参数params(稍后将介绍)self.hidden = nn.Linear(20, 256) # 隐藏层self.out = nn.Linear(256, 10) # 输出层# 定义模型的前向传播,即如何根据输入X返回所需的模型输出# 注意,这里我们使用ReLU的函数版本,其在nn.functional模块中定义。
2024-07-14 08:11:46
724
原创 速查手册:李沐老师d2l包内存着的函数
李沐老师的《动手学深度学习》中很喜欢将一些要重复使用的函数放在一个叫d2l的包内,在一个记事本内定义了就存好,等下一个记事本内要用了直接调用。无奈本人有段时间内一直弄好导致函数存不了,只能每一次使用都去前面的记事本找要什么函数,这种复杂的依赖关系让我头疼不已。于是便有了这边博客,用来记录d2l包内存着的函数,这样下次就可以直接到这里来找了,很方便。这些函数和深度学习密切相关,有很多通用的函数,可以帮助日常学习。
2024-07-13 08:35:31
427
原创 笔记小结:常见的激活函数一览
最受欢迎的激活函数是修正线性单元ReLU), 因为它实现简单,同时在各种预测任务中表现良好。给定元素𝑥,ReLU函数被定义为该元素与0的最大值:通俗地说,ReLU函数通过将相应的活性值设为0,仅保留正元素并丢弃所有负元素。为了直观感受一下,我们可以画出函数的曲线图。正如从图中所看到,激活函数是分段线性的。下面我们绘制ReLU函数的导数。
2024-07-13 08:23:06
382
原创 笔记:Softmax回归的Python实现
实现softmax由三个步骤组成:对每个项求幂(使用exp对每一行求和(小批量中每个样本是一行),得到每个样本的规范化常数;将每一行除以其规范化常数,确保结果的和为1。return X_exp / partition # 这里应用了广播机制对这段代码的理解可以参考笔记小结:Softmax回归预备知识。# torch.matmul即为矩阵乘法# X.reshape(-1,W.shape[0])中-1表示自己算一下行数,# W.shape[0]则表示要把X的列数变成W的行数,以便于矩阵乘法。
2024-07-12 08:06:11
1208
原创 笔记小结:Softmax回归之模块导入与数据加载
Fashion-MNIST是一个常用的图像数据集,用于替代传统MNIST手写数字数据集,它包含了10个类别的70,000个灰度图像,每个类别有7,000个图像。这些类别包括T恤、裤子、鞋子等时尚物品。这个数据集通常用于训练和测试图像识别模型。函数batch_size:定义了每次迭代中要加载的样本数量。resize:可选参数,如果提供,将图片大小调整到指定的像素尺寸。定义了一个转换列表trans,其中包含,它将图片转换为PyTorch张量。如果提供了resize参数,则将。
2024-07-11 08:23:59
1019
原创 笔记小结:Softmax回归预备知识
实现softmax由三个步骤组成:对每个项求幂(使用exp对每一行求和(小批量中每个样本是一行),得到每个样本的规范化常数;将每一行除以其规范化常数,确保结果的和为1。正如上述代码,对于任何随机输入,我们将每个元素变成一个非负数。此外,依据概率原理,每行总和为1。
2024-07-10 08:16:25
487
原创 笔记:线性回归的Python实现
"""线性回归模型""""""均方损失"""def sgd(params, lr, batch_size): #优化算法与训练这两部分是核心,也是最难懂的地方"""小批量随机梯度下降"""# """线性回归模型"""初始化模型参数# w,b#输出:均方误差 mean square error MSE随机梯度下降法 stochastic gradient descent SGD。
2024-07-09 10:46:16
1033
原创 笔记小结:Python自动微分
重要的是,我们不会在每次对一个参数求导时都分配新的内存。因为我们经常会成千上万次地更新相同的参数,每次都分配新的内存可能很快就会将内存耗尽。注意,一个标量函数关于向量𝑥的梯度是向量,并且与𝑥具有相同的形状。y.backward()是通过调用反向传播函数来自动计算y关于x的每个分量的梯度,这些梯度(也就是导数值)是存在x.grad中的。关于x的导数为4x,故而y关于x的梯度为tensor([ 0., 4., 8., 12.])是一个长度为4的向量,计算。的点积,得到了我们赋值给。
2024-07-08 11:01:55
369
锂离子电池生产参数调控及生产温度预测挑战赛数据集
2024-08-20
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人