
机器学习
机器学习原理及sklearn复习
儒雅的顾毛毛
这个作者很懒,什么都没留下…
展开
-
极市平台-资源整合
深度学习面试篇:深度学习领域你不可不知的面试干货分类网络Trick篇:分类网络 Trick 大汇总PyTorch 常用代码篇:PyTorch 常用代码段总结Attention篇:– Attention 综述:基础原理、变种和最近研究– 深度学习中 Attention Mechanism 详细介绍:原理、分类及应用– 魔改 Attention 大集合– 论文– Attention for Medical Image– 注意力机制之 Residual Attetion Network– 【.转载 2020-10-11 22:09:04 · 321 阅读 · 0 评论 -
PyTorch中的contiguous
pytorch中contiguous的用法转载 2020-10-08 21:44:36 · 126 阅读 · 0 评论 -
EfficientNet详细解读
技术解读EfficientNet系列模型转载 2020-10-07 15:28:53 · 676 阅读 · 0 评论 -
pytorch warm-up调整学习率
模型训练技巧之warm-up转载 2020-10-05 18:04:09 · 2994 阅读 · 0 评论 -
深度学习网络参数量和浮点计算量计算
深度学习网络参数量和浮点计算量(FLOPs)计算转载 2020-09-20 21:55:00 · 1083 阅读 · 0 评论 -
DenseNet论文翻译及pytorch实现解析
DenseNet论文翻译及pytorch实现解析转载 2020-09-11 10:14:27 · 221 阅读 · 0 评论 -
卷积神经网络中十大拍案叫绝的操作
CNN中不同的卷积操作转载 2020-08-23 12:37:18 · 140 阅读 · 0 评论 -
深入理解Batch Normalization
深入理解Batch Normalization深入理解Batch Normalization转载 2020-08-23 11:21:50 · 152 阅读 · 0 评论 -
SVM与LR(逻辑回归)的区别和联系
SVM与LR(逻辑回归)的区别和联系区别:1、SVM是非参数估计,本质上是解决二次规划问题;LR是参数估计,本质上是一个极大似然估计问题。2、SVM被称为结构风险最小化,也就是让模型的泛化能力尽可能好;LR被称为经验风险最小化,也就是最小化分类误差。3、SVM中使用的分类损失函数是合页损失函数;LR中使用的分类损失函数是交叉熵函数。4、SVM中只使用支持向量来决定决策边界;LR使用所有的样本来构建分类器。5、SVM不能直接输出分类概率;LR输出的是分类概率,可以通过阈值判断来确定分类。6、SV转载 2020-08-12 23:54:55 · 888 阅读 · 0 评论 -
如何比较两种方法的灵敏度和特异度
如何比较两种方法的灵敏度和特异度转载自[https://www.mediecogroup.com/method_topic_article_detail/152/?ty=methods](https://www.mediecogroup.com/method_topic_article_detail/152/?ty=methods)转载自https://www.mediecogroup.com/...转载 2020-03-17 15:29:44 · 8615 阅读 · 1 评论