
机器学习
初识-CV
梦想总是和我擦肩而过。
展开
-
ValueError: Tensor conversion requested dtype int64 for Tensor with dtype float64: ‘Tensor(“loss/a
def KL(y_true, y_pred): weights = K.sum(K.cast(K.argmax(y_true, axis=1)*K.log(K.argmax(y_true, axis=1)/K.argmax(y_pred, axis=1)),dtype='float32')) return weights* losses.categorical_crossentr...原创 2019-04-29 10:53:16 · 6313 阅读 · 0 评论 -
KL散度、JS散度、Wasserstein距离
KL散度KL散度又称为相对熵,信息散度,信息增益。KL散度是两个概率分布P和Q 差别的非对称性的度量。 KL散度是用来 度量使用基于Q的编码来编码来自P的样本平均所需的额外的位元数。 典型情况下,P表示数据的真实分布,Q表示数据的理论分布,模型分布,或P的近似分布。定义如下:因为对数函数是凸函数,所以KL散度的值为非负数。有时会将KL散度称为KL距离,但它并不满足距离的性质:KL散度...原创 2019-04-29 11:07:39 · 991 阅读 · 0 评论 -
python + sklearn ︱分类效果评估——acc、recall、F1、ROC、回归、距离
一、acc、recall、F1、混淆矩阵、分类综合报告1、准确率第一种方式:accuracy_score# 准确率import numpy as npfrom sklearn.metrics import accuracy_scorey_pred = [0, 2, 1, 3,9,9,8,5,8]y_true = [0, 1, 2, 3,2,6,3,5,9]accuracy_sco...原创 2019-04-25 13:14:17 · 1373 阅读 · 0 评论 -
反卷积(Deconvolution)、上采样(UNSampling)与上池化(UnPooling)
反卷积(Deconvolution)、上采样(UNSampling)与上池化(UnPooling)相关代码和可视化代码在附录反卷积(Deconvolution)反卷积(转置卷积、空洞卷积(微步卷积))近几年用得较多,可以概括为:反卷积=上采样=(转置卷积+微步卷积)⊆ 空洞卷积=一般意义上的广义卷积(包含上采样和下采样)。这是空洞卷积(微步卷积)的例子,其中下面的图是输入,上面的图是输出,...原创 2019-06-10 10:41:58 · 3276 阅读 · 0 评论 -
深度学习: 端到端模型(end-to-end learning)
两者相比,端到端的学习省去了在每一个独立学习任务执行之前所做的数据标注,为样本做标注的代价是昂贵的、易出错的。原创 2019-06-10 15:58:13 · 12340 阅读 · 3 评论 -
常用的归一化(Normalization) 方法:BN、LN、IN、GN
常用的Normalization方法主要有:Batch Normalization(BN,2015年)、Layer Normalization(LN,2016年)、Instance Normalization(IN,2017年)、Group Normalization(GN,2018年)。它们都是从激活函数的输入来考虑、做文章的,以不同的方式对激活函数的输入进行 Norm 的。我们将输入的 fe...转载 2019-09-29 10:56:17 · 9027 阅读 · 0 评论