
theory of algorithms
阿尔发go
这个作者很懒,什么都没留下…
展开
-
python之loss
文章目录介绍softmaxsoftmaxloss介绍softmax家族总结softmaximport numpy as npdef softmax(X,SUBMAX=False): """dtype: float X shape: batch * -1 * classes ndarray or : -1 * classes nd...原创 2019-12-26 15:14:12 · 1836 阅读 · 0 评论 -
算法列表
Boost和AdaBoost算法原理 AdaBoost算法的核心思想是针对同一个训练集训练出不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个性能更加强大的分类器(强分类器) 详细原理待续...原创 2018-08-17 16:15:01 · 543 阅读 · 0 评论 -
softmax loss家族
softmax总结:https://www.jianshu.com/p/3c8fc9dc5ab1SphereFace在MegaFace数据集上识别率在2017年排名第一,用的A-Softmax Loss有着清晰的几何定义,能在比较小的数据集上达到不错的效果。这个是他们总结成果的论文:SphereFace: Deep Hypersphere Embedding for Face Recogniti...原创 2018-10-19 10:54:41 · 171 阅读 · 0 评论 -
train,val,test的区别
参考:https://www.mobibrw.com/2017/7966原创 2018-10-22 16:51:12 · 13850 阅读 · 0 评论 -
tensorflow训练时loss出现nan问题
第一步:把loss进行拆分,打印loss相关的值total_loss,xy_loss,wh_loss,obj_loss,noobj_loss,class_loss = loss_fn(label, output) tf.print(['loss:xy=',xy_loss,',wh=',wh_loss,',obj=',obj_loss,',noobj=',noobj_loss,',cls=',...原创 2019-07-01 10:59:08 · 3319 阅读 · 0 评论 -
BatchNorm+激活函数
深度学习: 激活函数 (Activation Functions)激活函数类型激活函数中,常用的有Sigmoid、tanh(x)、Relu、Relu6、Leaky Relu、参数化Relu、随机化Relu、ELU。其中,最经典的莫过于 Sigmoid函数 和 Relu函数 。ReLU6首先说明一下ReLU6,卷积之后通常会接一个ReLU非线性激活,在Mobile v1里面使用ReLU6,R...原创 2019-07-29 16:41:09 · 1561 阅读 · 0 评论 -
mAP
MS COCO数据集目标检测评估(Detection Evaluation)(来自官网)原创 2019-07-29 17:23:50 · 123 阅读 · 0 评论