
深度学习
文章平均质量分 87
HLBayes
QQ:446425957
展开
-
torch 卷积、反卷积、pooling输出大小
卷积Conv2d(in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1)Hnew=⌊Hold+2×padding−dilation×(kernel−1)−1stride+1⌋=⌊Hold+2×0−1×(kernel−1)−11+1⌋\begin{aligned}\textcolor{blue}{H_{new}}&=\left\lfloor \frac{\textcolor{blue}{H_{old}}原创 2022-04-10 17:06:04 · 961 阅读 · 0 评论 -
什么是最大似然估计(Maximum Likelihood Estimation,MLE):对比“交叉熵、逻辑回归”理解
对比理解-最大似然估计(Maximum Likelihood Estimation,MLE)最大似然估计 VS 最小化交叉熵最大似然估计最小化交叉熵最大似然估计 VS 最小化交叉熵参考:Cross-entropy and Maximum Likelihood Estimation《动手学深度学习》(3.4 softmax回归)Aston Zhang, Mu Li, Zachary C. Lipton, Alexander J. Smola最大似然估计假设数据集Xexample={x1,x2,...原创 2021-07-10 16:11:44 · 776 阅读 · 0 评论 -
Sigmoid 与 Softmax 的区别
Sigmoid 与 Softmax 的区别结论定义图例参考:Multi-label vs. Multi-classClassification: Sigmoid vs. Softmax、Sigmoid function、Softmax function结论sigmoid:使大的更大、小的更小(保持数值被归整到0-1之间)softmax:使所有的值之和为1(保持数值间的大小关系)定义sigmoid 处理的是单个输入值,不关注整体输入数据的关系。f(yi)=11+e−yi for&nb原创 2021-07-09 15:46:47 · 9359 阅读 · 1 评论 -
模型训练中epoch、batch、update之间的关系
参考:【機器學習2021】預測本頻道觀看人數 (下) - 深度學習基本概念簡介、Introduction of ML/DLepoch≥batch=updateepoch\geq batch=updateepoch≥batch=update将NNN个训练样本随机分成若干个等长的batchbatchbatch,每个batchbatchbatch中的样本个数为BBB(最后一个可能小于BBB)随机初始化参数θ0\theta^0θ0用第一个batchbatchbatch内的BBB个样本针对loss函数LLL(原创 2021-07-08 22:59:59 · 1166 阅读 · 2 评论