
算法
文章平均质量分 96
liguiyuan112
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
onnx 模型转换及推理
最近在部署模型在安卓端时发现ncnn模型不及原来的pytorch精度高,误差挺大的,分类误差超过了0.1,怀疑是模型转换,这里就验证一下是不是pytorch -> onnx 模型中产生的误差。1.模型转换先来看一下pyotrch 到onnx 模型转换,这个网上已经很多资料了,这里再贴一下代码:import torchdevice = torch.device("cuda" if torch.cuda.is_available() else "cpu")def model_..原创 2020-09-24 14:01:15 · 4876 阅读 · 1 评论 -
交叉熵和最大似然估计之间的关系
在分类的网络模型中,我们常常使用交叉熵作为损失函数,今天来梳理一下这些知识点。1. 交叉熵交叉熵作为损失函数的实际意义,这里引用这篇博文(https://blog.youkuaiyun.com/elite666/article/details/83850786)的一句话:交叉熵刻画的是实际输出(概率)与期望输出(概率)的距离,也就是交叉熵的值越小,两个概率分布就越接近,即拟合的更好。交叉熵计算公式:式中 x为一个离散随机变量,p(xj)表示第j类的概率。假设同一随机变量...原创 2020-09-23 18:13:06 · 8185 阅读 · 2 评论 -
softmax loss 交叉熵损失函数求导
1. softmax函数求导求导之前我们先了解softmax函数,softmax一般是用来作为网络的输出层,直接输出概率信息,定义如下:那么我们对softmax函数进行求导,为了简洁把求和里面的一大堆用简写:①当i =j时:②当i≠j时:2.对softmax loss求导好了,有了前面这些知识之后我们开始求导。这个函数最要是...原创 2020-03-01 17:25:10 · 1300 阅读 · 0 评论 -
神经网络中的前向传播和反向传播理解
前向传播输入,输出,缓存为前向传播的过程:向量化的过程可以写成:式中,就是初始的输入X。如下图的两层神经网络所示,可以很好的理解。反向传播反向传播主要采用数学上的链式法则,反向传播的公式推导可以总结为4个公式。输入,输出,,形式转换一下,和上面的式子是等价的,步骤如下:第5个公式由4式代入1式得到。...原创 2019-05-01 00:09:04 · 3453 阅读 · 0 评论 -
斐波那契数列(兔子数列)
文章内容摘自——百度百科1. 定义斐波那契数列(Fibonacci sequence),又称黄金分割数列、因数学家列昂纳多·斐波那契(Leonardoda Fibonacci)以兔子繁殖为例子而引入,故又称为“兔子数列”,指的是这样一个数列:1、1、2、3、5、8、13、21、34、……斐波纳契数列以如下被以递推的方法定义:F(1)=1,F(2)=1, F(n)=F(n-1)+F(n-...转载 2019-05-19 12:07:31 · 59223 阅读 · 3 评论 -
实现链表反转的最好理解
单链表的反转代码如下:typedef struct LNode //定义单链表结点类型{ int data; //数据域 struct LNode *next; //指针域}LNode, *LinkList;LinkList reverse_list(LinkList L...原创 2019-05-19 11:51:42 · 2613 阅读 · 1 评论