自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(14)
  • 资源 (7)
  • 收藏
  • 关注

原创 复试口语问答

学校的好处:It provides me with a good learning atmosphere, so I really enjoy the past four years I spent there. Under the guidance of my teachers, I am equipped with good learning and practical abilities.(学校提供良好学习氛围,喜欢度过的四年,在老师指导下,我拥有良好学习和实践能力 )总之,我是不会轻易放弃的 )

2025-02-12 17:16:18 381

原创 cnn卷积神经网络-刘二大人

填充与步幅:增加填充(padding)或改变滑动步幅(stride)会影响输出尺寸。累加到一起组合成为每个通道的输出。• 如果步幅为 2,卷积核每次滑动跳过1个像素(如从位置0直接跳到位置2)。卷积和池化:提取图像的空间信息和模式(如数字的边缘、笔画)。步幅(Stride) 决定了卷积核在输入矩阵上滑动的步长。有 𝑛 个通道,则每一个卷积核的通道个数也必须是 𝑛。如果需要输出 𝑚 个通道,则需要 𝑚 个卷积核,全连接层:将提取的特征映射到具体的分类结果。• 默认步幅为 1,即卷积核逐个像素滑动。

2025-01-22 16:31:13 712

原创 dataset_dataloader-刘二大人

Epoch:定义:对。

2025-01-20 16:18:47 342

原创 softmax-刘二大人

例如,如果真实类别是第3类(对应[0,0,1,0,0]),损失为−log⁡(0.5)。当概率接近1时,log⁡(𝑥)接近0,表明预测准确时的损失接近于零。减少尺度差异:原始特征可能有不同的尺度(例如一个特征的值范围是[0,1],另一个是[0,1000])。假设有3个类别,真实标签𝑌=[0,1,0],即样本属于第2类,模型输出概率分布𝑌^=[0.2,0.7,0.1]。在分类问题中,真实类别标签𝑌通常是one-hot编码的(如分类标签为3,标签可能是[0,0,1,0,0]

2025-01-18 22:59:09 1004

原创 多维度特征输入-刘二大人

1.当输入始终小于或等于0时,ReLU的输出为0,导数也为0。这样会导致这些神经元的梯度永远为0,不再更新权重,这些神经元被称为“死亡神经元”。2.如果学习率设置过大,可能导致大量神经元的输入值偏向负值,最终模型性能降低。

2025-01-17 12:45:48 938

原创 罗杰斯帝回归-刘二大人

模型的输出值需要是经过Sigmoid激活函数处理后的概率值(即范围为[0,1]的数值)。如果输出值是未经过Sigmoid的原始值,可能需要先进行Sigmoid处理。真实标签:真实标签是指样本的实际类别标签。在二分类任务中,真实标签是二元的,通常是0或1: 0表示样本属于类别0。𝑝 是模型的预测概率值,即模型输出通过Sigmoid激活后的结果,表示样本属于类别1的概率。预测一个邮件是否是垃圾邮件(垃圾邮件是类别1,非垃圾邮件是类别0)。真实标签通常是 0 或 1,表示样本属于类别0或类别1。

2025-01-16 11:39:00 241

原创 刘二大人pytorch笔记目录

以下为刘二大人(pytorch)教程自己做的笔记,如有错误还请见谅,可评论交流梯度下降反向传播线性回归(torch版本)

2025-01-14 16:43:58 320

原创 刘二大人-线性回归(torch版本)

self.linear = torch.nn.Linear(1, 1) 定义了一个线性层(nn.Linear),输入特征维度为 1,输出特征维度为 1。如果输入的类型不是张量(如普通 Python 列表或 NumPy 数组),PyTorch 将无法构建计算图,从而无法进行自动求导。PyTorch 的计算依赖张量类型,所有模型计算、损失计算和梯度传播都基于张量实现。它的主要功能是通过计算的梯度更新模型参数 𝑤 和 𝑏,使损失函数值不断减小。torch.nn.Linear 的内部运算是 𝑦=𝑥⋅𝑤𝑇+𝑏。

2025-01-14 16:39:31 949

原创 刘二大人-反向传播

在 PyTorch 中,调用 loss.backward() 时,梯度会被 累积 到 w.grad 中,而不是覆盖。为了避免上一次的梯度影响当前的计算结果,需要在每次更新参数后清零梯度。上述代码是一个 PyTorch 张量(Tensor),并通过设置 requires_grad=True 启用了梯度跟踪功能。每一次外层循环的权重 𝑤都会基于上一轮更新后的 w进行计算,这是模型训练的核心逻辑,即权重不断被优化,逐步逼近最优值。PyTorch 会记录与 w 相关的所有操作,构建计算图。

2025-01-13 18:08:18 262

原创 刘二大人-梯度下降

什么是噪声?噪声是指优化过程中梯度计算中引入的随机波动,尤其是在随机梯度下降(SGD)中,每次更新基于单个样本,梯度方向会有一定的偏差(噪声)。噪声的作用是什么?噪声可以帮助优化器:跳出局部最优解。避免停滞在鞍点(梯度为零的平坦区域)。在优化初期加速探索参数空间。

2025-01-12 18:48:10 311

原创 链式线性表笔记

链式线性表序:由于节点在存储器中位置位位置是任意的,即逻辑上相邻的数据元素在物理上不一定相邻。因此得出了线性表的链式结构,又称为非顺序映像,或链式映像。一. 特点: 物理位置任意的存储单元,来存放线性表的数据元素。 存储单元可以是连续,也可以是不连续。 链表中的元素的逻辑顺序和物理次序不一定相同。 访问时,只能通过头指针进入链表,并通过每个结点的指针域,依次向后顺序扫描其余结点。所以寻找第一个结点和最后一结点所花费的时间不等。注:单链表由头指针唯一确定,因此可以用头指针的名字来命名。

2022-01-11 15:49:43 393

原创 顺序存储结构的线性表代码实现

顺序存储结构的线性表代码实现在这里插入代码片/** free()函数、malloc()函数 1.malloc函数返回的是void类型地址,并不会指出地址位置,因此我们可以采用强制转换将地址赋给指针 2.如果不使用free函数,则在函数结束时会释放指针,但分配的内存不会释放。 当再次分配内存时,上次分配的内存就不可用,这样无限循环会导致内存泄漏 3.free的参数位置存放的是指针(也就是指向malloc分配内存的那个指针) 重点:c中的->用在前

2022-01-07 11:45:28 379

原创 数据结构与算法笔记(王卓网课+教材+大话数据结构)

数据结构笔记(王卓+教材+大话数据结构)

2022-01-02 11:55:00 1437

原创 c语言笔记

这里分享关于自学郝斌老师的c语所做的笔记常量的表示基本的输入和输出函数的用法3. 运算符及流程控制

2021-03-26 11:00:34 2447 3

hive的思维导图//////////////////

安装环境配置,使用案例等

2022-11-24

hadoop高可用&新特性&优化思维导图笔记

hadoop高可用&新特性&优化思维导图笔记

2022-10-30

自学zookeeper笔记 思维导图类型

自学zookeeper笔记 思维导图类型

2022-10-30

数据结构与算法查找。。。。

数据结构与算法查找。。。。

2022-03-11

数据结构与算法第一部分

数据结构与算法第一部分

2022-02-20

数据结构与算法图的二部分

数据结构与算法图的二部分

2022-02-20

数据结构与算法树与二叉树

数据结构与算法树与二叉树

2022-01-31

数据结构与算法串.docx

数据结构与算法串.docx

2022-01-18

数据结构与算法链式线性表.docx

数据结构与算法链式线性表.docx

2022-01-10

数据结构笔记 绪论+算法.docx

对于b站王卓数据结构的整理,此笔记由一些ppt图片与教材中的概念组成,大家下载后可以对其中文字进行编辑,80%的文字可以修改。同时也参考大话数据结构里的一些话语

2021-12-31

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除