- 博客(13)
- 收藏
- 关注
原创 nnDetection安装到使用,包括环境搭建,数据预处理和训练(没有使用docker)
nndetection在服务器上部署过程,包括环境搭建,依赖包下载,数据预处理,训练等
2022-07-22 17:36:13
3022
28
原创 2021-10-06
torch自动求导机制,detach()的应用torch.Tensor 是这个包的核心类。如果设置它的属性 .requires_grad 为 True,那么autograd将会追踪对于该张量的所有操作。当完成计算后可以通过调用 .backward(),来自动计算所有的梯度。这个张量的所有梯度将会自动累加到.grad属性.要阻止一个张量被跟踪历史,可以调用 .detach() 方法将其与计算历史分离,并阻止它未来的计算记录被跟踪。为了防止跟踪历史记录(和使用内存),可以将代码块包装在 with torc
2021-10-06 15:43:27
105
转载 python编程matplotlib.pyplot绘图
matplotlib.pyplot比较全面的绘图教程https://liam.page/2014/09/11/matplotlib-tutorial-zh-cn/
2020-04-03 09:56:19
144
原创 最小二乘有监督回归(四)模型选择
最小二乘有监督回归(四)模型选择针对前几节提出的约束条件和核模型的的参数不同,拟合效果也不一样,此节主要介绍如何选择最合适的模型参数参数主要是拉格朗日乘子和核模型带宽h先看效果那么如何来确定参数呢,交叉验证法,把训练样本的一部分拿出来作为测试样本,不将其用于学习,只用于评价最终学习结果的泛化误差,方法如下matlab程序...
2019-11-22 11:06:30
183
原创 最小二乘有监督回归(三)带L2约束条件的最小二乘
最小二乘有监督回归(三)带L2约束条件的最小二乘带约束条件主要是解决因为噪声造成的过拟合的问题条件一:p满足p方=p,p转置还等于p,此式表示的是矩阵p的值域的正交矩阵。将参数设计矩阵换成此矩阵乘以p即可。参数空间限制为例程条件二 L2约束将参数限制在超球内。用拉格朗日对偶问题的方法进行求解拉格朗日乘子由半径R来决定,求解过程较为复杂,简化一下,直接指定拉格朗日乘子,...
2019-11-22 10:36:41
1315
原创 最小二乘有监督回归(一)
最小二乘有监督回归最小二乘学习法是根据输入训练数据,不断调整输入数据的权重,直到模型输出和训练集输出的平方误差最小。所以训练目的就是权重。平方误差:(Xi,Yi)是输入的数据,theta代表权重。使用线性模型,也就是如下图,可以理解为类似级数的感觉如此一来,平方误差可以表示为而线性模型可以表示为平方误差关于权重theta的偏微分就可以写成偏微分为0时,最小二乘满足关系式...
2019-11-21 21:42:39
255
原创 ROC曲线图详解
@TROC曲线图详解OC欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Markdown编辑器, 可以仔细阅读这篇文章,了解一下Markdown的基本语法知识。新的改变我们对Markdown编辑器进行了一些功能拓展与语法支持,除了标准的Markdown编辑器功能,我们增加了如下几点新功能,帮助你用它写博客:全新的界面设...
2019-11-20 21:25:40
17841
1
原创 自编码器及其几种变种
自编码器自编码器是一种基于无监督学习的数据压缩和特征提取的表达方法。主要种类有一般的自编码器,降噪自编码器,稀疏自编码器,和栈式自编码器。自编码器( autoencoder) 是一种有效的数据维度斥缩算法,主要应用在以下两个方面1·构建 一种能够 重构输入样本并进行特征表达的神经网络2·训练多层神经网络时,通过自编码器训练样本得到参数初始第一条中的“特征表达”是指对于分类会发生变动的不...
2019-11-15 14:27:13
2466
转载 几种梯度下降的方法
(梯度下降法作为机器学习中较常使用的优化算法,其有着三种不同的形式:批量梯度下降(Batch Gradient Descent)、随机梯度下降(Stochastic Gradient Descent)以及小批量梯度下降(Mini-Batch Gradient Descent)。其中小批量梯度下降法也常用在深度学习中进行模型的训练。接下来,我们将对这三种不同的梯度下降法进行理解。 为了便于理解,...
2019-11-15 10:21:38
3815
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人