- 博客(15)
- 资源 (1)
- 收藏
- 关注
原创 yolov5 v7.0转ncnn时问题解决
通过节点输出,发现当获取到Slice算子时,输出错误,因此初步判定Slice算子有问题,通过文档查看,发现ncnn中Slice的参数1=3(这里的1是axis),由于ncnn最多支持4维度(忽略掉batch,就只剩3维),因此这里的维度越界了,改为1=2就可以正常运行了。由于最终模型结构没有问题,那么问题肯定是出在模型参数上了,再次通过各个节点的部分结果与onnxruntime对比,在同样输入时,第一层(Convelution)的结果就不对,肯定是权重或偏置不对。2.通过自定义算子,在代码运行时注册进去。
2023-11-01 18:01:12
1627
10
原创 RSA算法原理
1976年,两位美国计算机学家WhitfieldDiffieWhitfield DiffieWhitfieldDiffie 和 MartinHellmanMartin HellmanMartinHellman,提出了一种崭新构思,可以在不直接传递密钥的情况下,完成解密。这被称为"Diffie-Hellman密钥交换算法"。这个算法的产生,预示着非对称加密诞生了。 非对称加密的场景是:A给B发送信息。B要先生成两把密钥(公钥和私钥)。公钥是公开的,任何人都可以获得,私钥则是保密的。A获取B的公钥
2020-12-09 10:41:28
339
原创 常用算法解析--动态规划
动态规划算法通常用于求解具有某种最优性质的问题。在这类问题中,可能会有许多可行解。每一个解都对应于一个值,我们希望找到具有最优值的解。 能采用动态规划求解的问题的一般要具有3个性质:最优化原理:如果问题的最优解所包含的子问题的解也是最优的,就称该问题具有最优子结构,即满足最优化原理无后效性:即某阶段状态一旦确定,就不受这个状态以后决策的影响。也就是说,某状态以后的过程不会影响...
2019-10-14 01:12:59
471
1
原创 条件随机场CRF原理
如上图所示,无向图的联合概率可以表示为:(1)P(Y)=1Z∏cψ(Yc)P(Y) = \frac{1}{Z}\prod_c\psi(Y_{c}) \tag{1}P(Y)=Z1c∏ψ(Yc)(1)其中:ccc是最大团;YcY_cYc是最大团c中包含的变量;ψ(Yc)\psi(Y_c)ψ(Yc)是最大团ccc的联合概率,ψ(Yc)=e−E(Yc)\psi(Y_c)=...
2019-09-08 19:30:41
797
原创 HMM在分词中的应用
在前一篇博客中,讨论了隐马尔可夫模型的原理,三个问题,以及每个问题的解决方案和对应的算法推导。在本文中,就利用HMM中的预测问题来实现汉语分词。 对于一段话,对里边的词(可以是单个字,也可以是多个字)进行标注,标注的类型分为4中,分别为:Begin(开头)、End(结尾)、Middle(中间)、Single(单独)。因此我们需要有一个已经分好词的训练数据,训练数据据2....
2019-08-22 22:27:41
435
1
原创 隐马尔科夫模型(HMM)原理
马尔科夫链 马尔可夫链是一组具有马尔可夫性质的离散随机变量的集合。具体地,随机变量集合 X={Xn:n>0}\bold X=\{X_n:n>0\}X={Xn:n>0},若随机变量的取值都在数据集内 Xn=si,si∈sX_n =s_i, s_i \in \bold sXn=si,si∈s ,且随机变量的条件概率满足如下关系:p(Xt+1∣Xt,X...
2019-08-22 15:58:43
537
原创 PSENet原理介绍
前面我们介绍了经典的目标检测,这里我们来学习一篇OCR领域最新的论文,改论文提出了一个新的文字检测思路–PSENet。整体框架 如上图所示该模型主干网络使用ResNet系列(可以根据自己需要调整),输入图像维度为:[B,3,H,W][B, 3, H, W][B,3,H,W],通过下采样,特征融合,上采样,最后得到得到与原图片尺寸相同的输出F,维度大小为:[B,C,H,W][B,...
2019-08-04 18:43:17
22873
34
原创 机器学习之PCA
在机器学习中,数据预处理极为重要,好的数据预处理往往比模型更为关键,数据预处理中降维是相当重要的一个环节。常见的降维方法有很多种,如:SVD奇异值分解法,PCA主成分分析法等,这里主要针对PCA谈谈自己的看法。PCA概念 PCA的思想是将数据从原来的坐标系转换到新的坐标系中,新的坐标系的选择与数据本身相关。第一个新的坐标轴是原始数据中方差最大的方向,第二个新的坐标轴是与第一个坐标...
2019-05-30 16:44:23
459
原创 目标检测模型------Faster_RCNN模型
深度学习在目标检测领域按处理步骤分为两种,第一种称为two_stage,以Faster-RCNN为代表,第二种称为one_stage,以YOLO,SSD等为代表。这里先从最经典的Faster-RCNN开始,从流程图,组件结构,实现细节,训练要点方面进行介绍,如有不妥之处,欢迎指正。Fater-RCNN流程图 如上图所示,conv_layers是指特征特征提取层,feature_...
2019-05-24 15:12:51
1016
原创 常用算法解析-----递归算法
递归算法(Recursion Algorithm)是指一种通过重复将问题分解为同类的子问题而解决问题的方法。绝大多数编程语言支持函数的自调用,在这些语言中函数可以通过调用自身来进行递归。计算理论可以证明递归的作用可以完全取代循环。定义 若一个对象部分地包含它自己, 或用它自己给自己定义, 则称这个对象是递归的;若一个过程直接地或间接地调用自己, 则称这个过程是递归的过程。 ...
2019-05-19 13:02:07
643
原创 常用算法解析----排序算法
14/100发布文章 博文管理我的博客退出 Trash Temp 常用算法解析------二分法 常用算法解析------二分法 常用算法解析------二分法 常用算法解析------二分法 常用算法解析------二分法 常用算法解析----排序算法 常用算法解...
2019-05-19 11:11:48
413
原创 常用算法解析------二分法
该文章的很多思想来自《算法图解》(著:Aditya Bhargava,译:袁国忠)定义 二分法(Bisection method) 即一分为二的方法. 设[a,b]为R的闭区间. 逐次二分法就是造出如下的区间序列([an,bn]):a0=a,b0=b,且对任一自然数n,[an+1,bn+1]或者等于[an,cn],或者等于[cn,bn],其中cn表示[an,bn]的中点.算法思想...
2019-05-18 16:06:24
3310
1
原创 为什么说梯度的反方向是函数下降最快的方向
梯度在机器学习和深度学习中是一个高频词汇,弄懂梯度的概念对梯度下降,反向传播的理解有很大帮助。这里我根据个人理解,对梯度的反方向是函数下降最快的方向这一观点进行解释。限于作者水平,难免有错误之处,欢迎批评指正。...
2019-05-13 22:53:34
1749
原创 梯度下降法中BGD、SGD、MBGD的区别
梯度下降法 在机器学习中我们常用梯度下降法(或其改进的方法)对算法进行训练,一般分为三步:确定初始参数,前向传播获取误差,反向传播获取梯度,根据梯度更新参数。这里首先做出几个假定: 训练样本集为(x(i),y(i))(x^{(i)}, y^{(i)})(x(i),y(i)),iii为样本编号; 目标函数为:hθ(x(j))=∑j=0nθjxjh_{\theta}(x^{(j...
2019-05-11 16:08:06
1594
2
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人