
学习笔记整理
文章平均质量分 91
好记性不如什么
Y.Z.Y.
你所热爱的一切 都将成为你的天赋 亦是你生命的意义所在!
展开
-
ROC曲线、PR曲线(笔记整理)
简介:ROC曲线和PR曲线是机器学习中两个常见的评估指标(对于二分器而言),做个笔记…原理:在二分类问题中,分类器将一个实例的分类标记为是或否,这可以用一个混淆矩阵来表示。混淆矩阵有四个分类,如下表:TP(True Positive):指正确分类的正样本数,即预测为正样本,实际也是正样本。FP(False Positive):指被错误的标记为正样本的负样本数,即实际为负样本而被预测为正样本,所以是False。TN(True Negative):指正确分类的负样本数,即预测为负样本,实际也是负样原创 2020-11-20 18:39:50 · 1264 阅读 · 0 评论 -
过拟合(笔记整理)
关于过拟合、欠拟合,虽然知道这两个概念的意思,但是要准确的表达这个含义还是有点小困难,并且好记性不如烂笔头,所以写个博客,让大家温故而知新。原创 2019-04-09 09:02:28 · 6489 阅读 · 0 评论 -
梯度爆炸、消失(笔记整理)
深度神经网络中,我们很容易听到两个词语:梯度爆炸、梯度消失。那么为什么我们训练模型的时候,会发生这些现象呢?我们该怎么避免呢?原创 2019-04-10 22:54:16 · 566 阅读 · 0 评论 -
Batch Normalization(笔记整理)
关于Batch Normalization的白话理解和算法流程之超详细笔记整理。原创 2019-05-03 00:46:27 · 11986 阅读 · 0 评论 -
SVM面试问答(笔记整理)
面试的时候SVM基本必问了,做个笔记方便以后回忆原创 2020-07-24 09:22:28 · 547 阅读 · 0 评论 -
十大经典排序算法python实现(笔记整理)
排序算法看多少遍忘多少遍…所以干脆记下来算了。为了方便更清晰的认识,先看一张图:一、冒泡排序。比较相邻元素。如果第一个比第二个大,就交换。从第一对开始遍历,第一轮结束后,最末的元素是最大的数。剩下的元素重复以上步骤。输入为正序时最快O(n),输入为反序时最慢O(n×n)。python实现:def bubbleSort(a): for i in range(1, len(a...原创 2020-07-27 11:01:28 · 385 阅读 · 0 评论 -
关于模型训练时loss变化的问题(笔记整理)
好记性不如烂笔头:train loss 下降⬇,val loss下降⬇,说明网络仍在学习;~~ 奈斯,继续训练train loss 下降⬇,val loss上升⬆,说明网络开始过拟合了;~~ 赶紧停止吧,然后数据增强、正则train loss 不变,val loss不变,说明学习遇到瓶颈;~~ 调小学习率或批量数目train loss 不变,val loss下降⬇,说明数据集100%有问题;~~ 检查数据集标注有没有问题train loss 上升⬆,val loss上升⬆,说明网络结构设计不当,原创 2020-07-28 13:23:58 · 11412 阅读 · 14 评论 -
医学DICOM文件解析(笔记整理)
简介:之前做超声的时候第一次接触带dicom后缀的图像文件,于是记录一下有关医学影像的学习笔记。DICOM(Digital Imaging and Communications in Medicine)即医学数字成像和通信,是医学图像和相关信息的国际标准(ISO 12052)。它被广泛应用于放射医疗,心血管成像以及放射诊疗诊断设备(X射线,CT,核磁共振,超声等),并且在眼科和牙科等其它医学领域得到越来越深入广泛的应用。DICOM文件:医学图像设备生成 DICOM 文件,医生使用 DICOM 阅读器原创 2020-08-03 18:04:38 · 7361 阅读 · 1 评论