- 博客(14)
- 资源 (7)
- 收藏
- 关注
原创 复试口语问答
学校的好处:It provides me with a good learning atmosphere, so I really enjoy the past four years I spent there. Under the guidance of my teachers, I am equipped with good learning and practical abilities.(学校提供良好学习氛围,喜欢度过的四年,在老师指导下,我拥有良好学习和实践能力 )总之,我是不会轻易放弃的 )
2025-02-12 17:16:18
381
原创 cnn卷积神经网络-刘二大人
填充与步幅:增加填充(padding)或改变滑动步幅(stride)会影响输出尺寸。累加到一起组合成为每个通道的输出。• 如果步幅为 2,卷积核每次滑动跳过1个像素(如从位置0直接跳到位置2)。卷积和池化:提取图像的空间信息和模式(如数字的边缘、笔画)。步幅(Stride) 决定了卷积核在输入矩阵上滑动的步长。有 𝑛 个通道,则每一个卷积核的通道个数也必须是 𝑛。如果需要输出 𝑚 个通道,则需要 𝑚 个卷积核,全连接层:将提取的特征映射到具体的分类结果。• 默认步幅为 1,即卷积核逐个像素滑动。
2025-01-22 16:31:13
712
原创 softmax-刘二大人
例如,如果真实类别是第3类(对应[0,0,1,0,0]),损失为−log(0.5)。当概率接近1时,log(𝑥)接近0,表明预测准确时的损失接近于零。减少尺度差异:原始特征可能有不同的尺度(例如一个特征的值范围是[0,1],另一个是[0,1000])。假设有3个类别,真实标签𝑌=[0,1,0],即样本属于第2类,模型输出概率分布𝑌^=[0.2,0.7,0.1]。在分类问题中,真实类别标签𝑌通常是one-hot编码的(如分类标签为3,标签可能是[0,0,1,0,0]
2025-01-18 22:59:09
1004
原创 多维度特征输入-刘二大人
1.当输入始终小于或等于0时,ReLU的输出为0,导数也为0。这样会导致这些神经元的梯度永远为0,不再更新权重,这些神经元被称为“死亡神经元”。2.如果学习率设置过大,可能导致大量神经元的输入值偏向负值,最终模型性能降低。
2025-01-17 12:45:48
938
原创 罗杰斯帝回归-刘二大人
模型的输出值需要是经过Sigmoid激活函数处理后的概率值(即范围为[0,1]的数值)。如果输出值是未经过Sigmoid的原始值,可能需要先进行Sigmoid处理。真实标签:真实标签是指样本的实际类别标签。在二分类任务中,真实标签是二元的,通常是0或1: 0表示样本属于类别0。𝑝 是模型的预测概率值,即模型输出通过Sigmoid激活后的结果,表示样本属于类别1的概率。预测一个邮件是否是垃圾邮件(垃圾邮件是类别1,非垃圾邮件是类别0)。真实标签通常是 0 或 1,表示样本属于类别0或类别1。
2025-01-16 11:39:00
241
原创 刘二大人pytorch笔记目录
以下为刘二大人(pytorch)教程自己做的笔记,如有错误还请见谅,可评论交流梯度下降反向传播线性回归(torch版本)
2025-01-14 16:43:58
320
原创 刘二大人-线性回归(torch版本)
self.linear = torch.nn.Linear(1, 1) 定义了一个线性层(nn.Linear),输入特征维度为 1,输出特征维度为 1。如果输入的类型不是张量(如普通 Python 列表或 NumPy 数组),PyTorch 将无法构建计算图,从而无法进行自动求导。PyTorch 的计算依赖张量类型,所有模型计算、损失计算和梯度传播都基于张量实现。它的主要功能是通过计算的梯度更新模型参数 𝑤 和 𝑏,使损失函数值不断减小。torch.nn.Linear 的内部运算是 𝑦=𝑥⋅𝑤𝑇+𝑏。
2025-01-14 16:39:31
949
原创 刘二大人-反向传播
在 PyTorch 中,调用 loss.backward() 时,梯度会被 累积 到 w.grad 中,而不是覆盖。为了避免上一次的梯度影响当前的计算结果,需要在每次更新参数后清零梯度。上述代码是一个 PyTorch 张量(Tensor),并通过设置 requires_grad=True 启用了梯度跟踪功能。每一次外层循环的权重 𝑤都会基于上一轮更新后的 w进行计算,这是模型训练的核心逻辑,即权重不断被优化,逐步逼近最优值。PyTorch 会记录与 w 相关的所有操作,构建计算图。
2025-01-13 18:08:18
262
原创 刘二大人-梯度下降
什么是噪声?噪声是指优化过程中梯度计算中引入的随机波动,尤其是在随机梯度下降(SGD)中,每次更新基于单个样本,梯度方向会有一定的偏差(噪声)。噪声的作用是什么?噪声可以帮助优化器:跳出局部最优解。避免停滞在鞍点(梯度为零的平坦区域)。在优化初期加速探索参数空间。
2025-01-12 18:48:10
311
原创 链式线性表笔记
链式线性表序:由于节点在存储器中位置位位置是任意的,即逻辑上相邻的数据元素在物理上不一定相邻。因此得出了线性表的链式结构,又称为非顺序映像,或链式映像。一. 特点: 物理位置任意的存储单元,来存放线性表的数据元素。 存储单元可以是连续,也可以是不连续。 链表中的元素的逻辑顺序和物理次序不一定相同。 访问时,只能通过头指针进入链表,并通过每个结点的指针域,依次向后顺序扫描其余结点。所以寻找第一个结点和最后一结点所花费的时间不等。注:单链表由头指针唯一确定,因此可以用头指针的名字来命名。
2022-01-11 15:49:43
393
原创 顺序存储结构的线性表代码实现
顺序存储结构的线性表代码实现在这里插入代码片/** free()函数、malloc()函数 1.malloc函数返回的是void类型地址,并不会指出地址位置,因此我们可以采用强制转换将地址赋给指针 2.如果不使用free函数,则在函数结束时会释放指针,但分配的内存不会释放。 当再次分配内存时,上次分配的内存就不可用,这样无限循环会导致内存泄漏 3.free的参数位置存放的是指针(也就是指向malloc分配内存的那个指针) 重点:c中的->用在前
2022-01-07 11:45:28
379
数据结构笔记 绪论+算法.docx
2021-12-31
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人