- 博客(48)
- 收藏
- 关注
原创 【深度学习与实战】2.3、线性回归模型与梯度下降法先导案例--最小二乘法(向量形式求解)
线性回归模型与梯度下降法先导案例--最小二乘法(向量形式求解)
2025-03-27 00:03:02
235
原创 【深度学习与实践】线性回归模型
因变量(被预测变量):自变量(解释变量,:截距(所有自变量为0时的基准值):回归系数(每个自变量对y的边际效应,解释变量,:误差项(捕捉未建模因素或随机噪声)
2025-03-26 22:05:28
487
原创 【深度学习的数学】导数
链式法则的话,就是复合函数的导数,外层函数的导数乘以内层函数的导数,比如f(g(x))的导数是f’(g(x)) * g’(x)。另外,参数方程的导数可能需要用链式法则来推导,比如如果x和y都是t的函数,那么dy/dx确实是(dy/dt)/(dx/dt),这个是对的,不过要确保dx/dt不为零,否则导数不存在或者需要其他处理。还有,反函数的导数,比如如果y = f(x),那么反函数x = f^{-1}(y)的导数是1/f’(x),也就是dx/dy = 1/(dy/dx),前提是dy/dx不等于零。
2025-03-26 21:02:19
809
原创 【深度学习与实战】2.2、线性回归模型与梯度下降法先导案例--最小二乘法
利用上述单特征线性模型来解决这个问题。首先这个数据的输入就一个,就是小明的学习时间,输出是考试的得分。当然数据是有很多的,要计算所有数据真实值和输出之间的误差和并计算出平均值,这个。函数为均方误差函数,也是线性回归模型的损失函数。·线性项的导数是系数的本身。求导并令导数为零,求出。首先,对损失函数关于。
2025-03-26 19:52:40
231
原创 【深度学习与实战】2.1、线性回归模型与梯度下降法先导案例
利用上述单特征线性模型来解决这个问题。首先这个数据的输入就一个,就是小明的学习时间,输出是考试的得分。当然数据是有很多的,要计算所有数据真实值和输出之间的误差和并计算出平均值,这个。函数为均方误差函数,也是线性回归模型的损失函数。
2025-03-26 18:54:03
423
原创 labelimg标注的VOC格式标签xml文件和yolo格式标签txt文件相互转换
1 labelimg标注VOC格式和yolo格式介绍labelimg标注工具怎么安装和使用在我的博客中已经讲解了,有需要可以看看,博客。1.1 voc格式VOC格式文件保存在和图像名称一样的xml文件中,xml文件中的标注信息如下图所示:文中红色框中保存着标注图片的主要信息。第一个红色框中里面显示着图片的保存在哪个文件夹中,标签对应的图片名称,还有图片保存的绝对路径。第二个红色框中的信息为标签图片的大小尺寸和通道,正常都是3通道。
2025-03-21 22:31:33
727
原创 神经网络的前向传播与反向传播公式计算详解
前向传播(Forward Propagation)和反向传播(Backward Propagation)是神经网络训练的核心过程。前者负责计算预测值,后者通过梯度下降优化参数。以下是公式逐项解析及计算示例。
2025-03-21 15:41:26
271
原创 神经网络的常见损失函数公式计算详解
损失函数(Loss Function)是神经网络训练中的核心组件,用于衡量模型预测值与真实值之间的差异。以下将详细介绍几种常用的损失函数,包括公式解析和计算示例。
2025-03-21 15:23:01
342
原创 均方误差损失函数(Mean Squared Error, MSE)详解
均方误差损失函数(MSE)是回归任务中最常用的损失函数之一,用于衡量模型预测值与真实值之间的平均平方误差。以下是其公式分解、数学推导及实际应用中的关键细节。
2025-03-21 15:15:50
141
原创 模型训练时 的过拟合
过拟合是机器学习模型在训练过程中出现的一种现象,指模型在训练数据上表现极好,但在未见过的新数据(测试数据或真实场景)上表现显著下降。简单来说,模型“死记硬背”了训练数据中的细节和噪声,导致失去泛化能力,无法适应新样本。
2025-03-21 10:48:34
717
原创 合页损失(Hinge Loss)函数
合页损失(Hinge Loss)是机器学习中常用于分类任务(尤其是支持向量机,SVM)的一种损失函数。它的核心目标是最大化分类边界的“间隔”(Margin),从而增强模型的泛化能力。
2025-03-21 09:36:37
175
原创 交叉熵损失(Cross-Entropy)函数
另外,用户可能对交叉熵的梯度计算和优化过程感兴趣,这部分需要详细解释,尤其是与Softmax激活函数结合时的反向传播机制。最后,检查是否有常见的误区需要澄清,例如交叉熵和负对数似然的关系,或者在使用时的注意事项,如输出层激活函数的选择。交叉熵是分类任务中最常用的损失函数,用户可能已经了解了一些基本概念,但需要更详细的数学解释和应用场景。我得先回顾一下之前提到的交叉熵部分,确保这次回答更深入,同时避免重复。还要注意用户的背景,可能是学生或刚入行的数据科学家,所以避免过于复杂的数学推导,但保持必要的严谨性。
2025-03-21 09:28:01
320
原创 神经网络损失函数
然后是分类任务的损失函数,比如交叉熵损失。接下来是Huber损失,这个好像是结合了MSE和MAE的优点,在误差较小时用平方,误差较大时用线性,这样既对异常值不那么敏感,又在接近目标时梯度较小,便于精细调整。其实对于线性模型,MSE是凸的,但神经网络是非线性非凸的,所以即使损失函数本身是凸的,整个优化问题可能还是非凸的。比如,交叉熵在分类中通常比均方误差更有效,因为它更直接地衡量概率分布的差异,而MSE在分类中可能导致梯度更新缓慢,尤其是在输出概率接近0或1的时候,梯度会变得很小,导致学习速度慢。
2025-03-21 09:23:58
767
原创 二分类任务和多分类任务
此外,结合之前的激活函数知识,比如Sigmoid用于二分类输出层,Softmax用于多分类,这样能帮助用户将新旧知识联系起来。根据之前的对话,用户对激活函数的数学定义和代码示例感兴趣,因此在解释分类任务时,也应保持类似的详细程度,包括数学公式和代码示例。同时,要提到常见的错误,比如在二分类中使用Softmax,或者在多分类中使用多个Sigmoid节点而不互斥的情况。首先,我需要回顾之前的对话历史,看看之前讨论过哪些激活函数,比如tanh、ReLU和Sigmoid,特别是Sigmoid在二分类中的应用。
2025-03-21 09:01:03
332
原创 Leaky ReLU 激活函数
ReLU全称是Rectified Linear Unit,也就是修正线性单元,它的公式是f(x) = max(0, x),即在输入x大于0时输出x,否则输出0。ReLU的优点是计算简单,能缓解梯度消失问题,但缺点是在负数区域梯度为0,可能导致神经元“死亡”,也就是永远无法被激活的情况。根据之前的了解,Leaky ReLU在输入为负数时,不是完全输出0,而是乘以一个小的斜率,通常是0.01。优点方面,除了避免神经元死亡,Leaky ReLU应该保留了ReLU的大部分优点,比如计算简单,适合深层网络。
2025-03-21 08:58:46
368
原创 Softmax激活函数
这时候应该怎么处理?同时,检查是否有遗漏的重要概念,比如Softmax的梯度推导和与交叉熵损失的关系,这部分可能需要详细展开,因为这是理解其应用的关键。假设S_i是Softmax的输出,那么对于S_i关于z_j的导数,当i=j时,导数应该是S_i*(1 - S_j),而当i≠j时,导数是-S_i*S_j?嗯,可能还需要举个例子来具体说明Softmax的计算过程,比如给定三个类别的logits值,计算它们的Softmax概率,并展示结果是否符合概率分布的要求,即和为1,且较大的logits对应较高的概率。
2025-03-21 08:56:30
376
原创 ReLU激活函数
ReLU的导数在x>0时为1,x<0时为0,而在x=0处不可导,通常处理为0或者1,但实际应用中可能忽略这个点。ReLU的主要问题是“神经元死亡”,当输入为负时,梯度为零,如果大量神经元处于这种状态,权重无法更新,导致神经元永久失效。最后,确保代码正确,导数处理正确,特别是负数部分的导数为零,正数部分为1,x=0处如何处理可能需要说明。总之,需要覆盖定义、导数、优缺点、应用场景、与其他函数的对比、代码示例、改进方法,结构类似之前的Tanh回答,但内容针对ReLU的特性展开,确保全面且易于理解。
2025-03-21 08:53:31
484
原创 Tanh激活函数
这比sigmoid的导数更容易计算,因为sigmoid的导数是σ(x)*(1 - σ(x)),而tanh的导数是1 - (tanh(x))²,可能在计算上更方便,而且梯度更陡峭,因为当输入在0附近时,导数接近1,而随着输入绝对值增大,导数逐渐趋向于0,但相比sigmoid,它的梯度消失问题可能更轻微?另外,需要注意的一点是,初始化权重的时候,如果使用tanh激活函数,可能需要考虑Xavier初始化,因为Xavier初始化考虑了激活函数的特性,比如其输入输出的方差,从而帮助保持梯度在深层网络中的流动。
2025-03-21 08:48:31
926
原创 全连接神经网络前向传播
用户可能想知道每个层的计算细节,比如如何从输入到第一隐藏层,再到后续层,直到输出。这可能涉及到参数数量的计算,比如输入层n个节点,隐藏层m个节点,那么权重数量是n*m,加上m个偏置,总共有n*m + m个参数。例如,输入是3维,隐藏层有2个神经元,那么权重矩阵就是3x2,加上偏置后的线性变换,再应用激活函数。最后,总结前向传播的整体流程,强调从输入到输出的数据流向,以及各层的作用。用户可能存在的疑问点包括:矩阵乘法的具体步骤,激活函数的选择对前向传播的影响,以及各层输出的维度变化。
2025-03-21 08:23:10
129
原创 前向传播和反向传播
接下来,我应该从简单的前向传播开始解释,强调输入如何通过各层得到输出,可能要用到矩阵乘法和激活函数,比如他们之前提到的sigmoid。我需要用易懂的语言,分步骤解释,比如先计算损失函数对输出的导数,再逐层回推,直到输入层。同时,要提到计算图的局部梯度,以及如何利用这些梯度更新参数。不过,之前的回复已经有了sigmoid的代码,这里可能需要更结构化的例子,比如一个简单的全连接网络。另外,用户可能想知道为什么反向传播有效,或者梯度消失的问题,比如使用sigmoid激活函数时导数较小,导致深层网络难以训练。
2025-03-20 23:17:33
266
原创 Sigmoid激活函数公式及导数详解
比如,当σ(x) = e^x/(1 + e^x),那么导数应该是[e^x*(1 + e^x) - e^x*e^x]/(1 + e^x)^2 = [e^x + e^{2x} - e^{2x}]/(1 + e^x)^2 = e^x/(1 + e^x)^2。比如,原函数σ(x)可以写成 (1 + e^(-x))^{-1},那它的导数就是 -1*(1 + e^(-x))^{-2} * (-e^(-x)),也就是e^(-x)/(1 + e^(-x))²,这和之前的结果一致。那现在,我想办法用σ(x)本身来表示导数。
2025-03-20 23:03:44
665
原创 This application failed to start because no Qt platform plugin could beinitialized
This application failed to start because no Qt platform plugin could beinitialized. Reinstalling the application may fix this problem.
2024-04-04 19:32:59
666
原创 YOLOV7:AttributeError: module ‘distutils‘ has no attribute ‘version‘ 的解决方案
YOLOV7:AttributeError: module ‘distutils‘ has no attribute ‘version‘ 的解决方案
2023-10-14 14:56:19
316
原创 PyCharm中解决Matplotlib绘图时AttributeError: module ‘backend_interagg‘ has no attribute ‘FigureCanvas‘问题
绘图时,出现AttributeError: module ‘backend_interagg’ has no attribute 'FigureCanvas’错误。注:现有matplotlib版本为3.8.0,将其降低为3.5.0。matplotlib版本过高,需要降低matplotlib版本。利用PyCharm中。
2023-10-04 21:18:13
765
原创 insightface安装过程中提示 Microsoft Visual C++ 14.0 or greater is required.
然后再进行 pip install insightface==0.7.3 -i https://mirrors.aliyun.com/pypi/simple/
2023-09-20 02:07:10
552
原创 DLL load failed while importing win32gui: 找不到指定的程序
【代码】DLL load failed while importing win32gui: 找不到指定的程序。
2023-09-19 13:49:36
173
原创 解决报错 OMP: Error #15: Initializing libiomp5md.dll, but found libiomp5md.dll already initialized
【代码】解决报错 OMP: Error #15: Initializing libiomp5md.dll, but found libiomp5md.dll already initialized。
2023-09-19 09:37:38
100
原创 springMVC(十)
Restful就是一个资源定位及资源操作的风格。不是标准也不是协议,只是一种风格规范。基于这个风格设计的软件可以更简洁,更有层次。
2022-10-11 16:56:32
131
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人