
机器学习
文章平均质量分 63
Wednesday Adams
这个作者很懒,什么都没留下…
展开
-
边缘检测——梯度计算
Note] 边缘检测的原理就是寻找像素值变化剧烈的点当作边缘如何寻找变化剧烈的点?原创 2023-03-23 16:43:11 · 488 阅读 · 0 评论 -
边缘检测——Canny
CannyCanny步骤。原创 2023-03-23 16:11:27 · 238 阅读 · 0 评论 -
边缘检测——Roberts算子
Roberts算子Roberts算子采用对角线方向相邻两象素之差近似梯度幅值检测边缘,是一个 2x2 的模版,模板分为水平方向和垂直方向。原创 2023-03-22 16:15:34 · 3757 阅读 · 0 评论 -
彩色图片转灰度图片
方法1彩色图片转灰度图片目前常用有两种方法方法1示例方法2。原创 2023-03-22 14:28:43 · 182 阅读 · 0 评论 -
Non-maximum Suppression代码
代码代码。原创 2023-03-22 14:05:00 · 187 阅读 · 0 评论 -
Kmeans算法(附代码)
Kmeans算法是一个无监督机器学习算法。其基本作用就是将一堆杂乱、无序的数据归成类,是用户给定的数,它表示用户需要将数据分成个类。原创 2023-03-02 16:36:04 · 3676 阅读 · 1 评论 -
RNN代码实现
就当作我们有两个在每个时间步数上的输入(1或者0加到每个数字的开头),这两个输入将会传播到隐含层,隐含层会记住是否有携带位。框框中彩色的1表示“携带位”。原因很简单,无论是卷积神经网络,还是人工神经网络,他们的前提假设都是:元素之间是相互独立的,输入与输出也是独立的。4.和卷积神经网络一样,这里的网络中每个 cell 都共享了一组参数(U,V,W),这样就能极大的降低计算量了。就是你考研之后做的考试卷子,是用你的记忆得到的。在很多情况下都是不存在的,因为很多任务,比如文本情感分析,都是只关注最后的结果的。原创 2023-02-12 09:55:43 · 818 阅读 · 0 评论 -
Few shot learning-Siamese network
cnn卷积神经网络(史上最容易理解版) - 简书 (jianshu.com)。大家都知道深度学习是需要大量数据来支撑的,数据集足够多的话,accuracy可达到0.9以上甚至1.0,数据集如果不够的话accuracy可能在0.3以下。大家也都知道收集数据集的工作非常麻烦,可能有些数据还不好收集(比如:有毒的蘑菇等),那这样训练出来的神经网络或者说模型是非常差的,那怎么办呢?想象一下你是怎么区分**铲子(spatula)和刀子(knife)**的?原创 2023-02-12 09:45:59 · 267 阅读 · 0 评论 -
SGD简介
给你一个xyxyxy坐标系,上面有一些点,给你过原点的一条直线ywxy=wxywx,如何用最快的方法来拟合这些点?为了解决这个问题,我们要对问题定义一个目标,即让所有的点离直线的偏差最小。我们常用的误差函数为均方误差,对于一个点p1p_1p1来说,它与直线的均方误差可以定义为e1e_1e1e1y1−wx12wx1−y12e1y1−wx12wx1−y12e1w2x1。原创 2023-02-11 17:39:51 · 9893 阅读 · 0 评论 -
mAP简介
在介绍AP之前,首先要了解一下Recall和Precision是什么。原创 2023-02-11 17:24:36 · 84 阅读 · 0 评论 -
Batch Normalization
归一化有助于将其特征值集中到(0,1)之间,因为对于某些激活函数来说,在(0,1)区间不饱和,存在最大梯度,所以将特征值集中到(0,1)之间有助于back propagation的时候做gradient descend。对于不同的框架,momentum的值会又所不同,比如pytorch的momentum=0.1,在megengine中的momentum=0.9。原创 2023-02-10 15:53:37 · 84 阅读 · 0 评论 -
dropout层简介
这就是dropout层的思想了,**为什么dropout能够用于防止过拟合呢?**因为约大的神经网络就越有可能产生过拟合,因此我们随机删除一些神经元就可以防止其过拟合了,也就是让我们拟合的结果没那么准确。dropout顾名思义就是被拿掉的意思,正因为我们在神经网络当中拿掉了一些神经元,所以才叫做dropout层。由于隐藏层的第一层和第二层神经元个数较多,容易产生过拟合,因此我们将其加上dropout的结构,而后面神经元个数较少的地方就不用加了!Dropout层在神经网络层当中是用来干嘛的呢?原创 2023-02-10 15:48:57 · 3901 阅读 · 0 评论 -
梯度消失(Gradient Vanishing)
在之前的文章中我们提到过反向传播:https://blog.dotcpp.com/a/89149 ,在反向传播中,参数是根据求该参数和损失函数的梯度来更新的,也就是沿着梯度下降的方向来更新模型参数。梯度消失其实就是梯度已经差不多趋近于0了,参数已经更新不动了,从而导致收敛速度慢,训练时间无限延长。所以也许靠近输出层的那几层梯度下降也许比较ok,但是靠近输入层的梯度下降肯定没这么快.可以o必然是一个很小的数,为什么.很小,更何况这个很小的数还要和。的输出范围在[0,1]之间,如果。是一个很小很小的数.原创 2023-02-10 15:45:35 · 557 阅读 · 0 评论 -
PSNR-峰值信噪比
PSNR是一种衡量图像质量的指标。在很多领域都会需要这个指标,比如在超分辨率重建图像的时候,PSNR就是很重要的指标了。原创 2023-02-09 14:38:47 · 5274 阅读 · 0 评论 -
BP(Back-Propagation)
BP(Back-Propagation),即反向传播算法,常用于深度学习的优化参数的方法原创 2023-02-09 12:00:18 · 96 阅读 · 0 评论 -
RPN简介
RPN全称是Region Proposal Network,Region Proposal的中文意思是“区域选取”,也就是“提取候选框”的意思,所以RPN就是用来提取候选框的网络原创 2023-02-09 10:41:23 · 2760 阅读 · 0 评论 -
Relu简介
Relu(Linear rectification function)是深度学习中的一种激活函数原创 2023-02-09 10:13:08 · 5253 阅读 · 0 评论 -
SVM(Support Vector Machines)
支持向量机(SVM),是一个用于解决二分类问题的有监督机器学习模型。原创 2023-02-08 16:15:37 · 283 阅读 · 2 评论