
数学与深度学习
峰峰的猫
归零心态,持续学习
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
python复现softmax损失函数详细版
from torch import nn import torch def loss_func(output,target): one_hot = torch.zeros_like(output) for i in range(target.size(0)): one_hot[i,target[i]]=1 softmax_out = torch.exp(output)/( torch.unsque...原创 2019-06-30 07:31:46 · 3207 阅读 · 0 评论 -
focal_loss
@Focalloss自我理解 sigmoid交叉熵损失 tensorflow中的 tf.nn.sigmoid_cross_entropy_with_logits()是最开始的基础二分类交叉熵,其中将是该类别的标签为1,不是该类别的标签为0。 one_hot编码表示三分类中的第三个类别为[0,0,1],sigmoid识别为第三个类别为正样本,其他的类别为负样本。 tensorflow的实现是在原有基...翻译 2019-01-25 09:32:33 · 634 阅读 · 0 评论 -
详细理解pytorch的六种学习率
author = ‘SherlockLiao’ import torch from torch import nn, optim from torch.autograd import Variable import numpy as np import matplotlib.pyplot as plt x_train = np.array([[3.3], [4.4], [5.5], [6.71],...原创 2019-06-30 10:14:54 · 4151 阅读 · 0 评论 -
深度学习面试高频之Batch Normalization
batch normalization作用的最全总结!原创 2019-08-30 19:54:25 · 552 阅读 · 0 评论 -
meta-learning在工业界的应用
learner to learn 训练模型具有快速学习的能力原创 2019-09-07 11:19:15 · 1199 阅读 · 2 评论