
图像分类
往事如yan
左眼425 右眼400 瞳距 64,所以摘了眼镜,我就一标准瞎子
当作笔记来用的,很多东西是ctrl+C and ctrl+V,再 + 一点自己理解
展开
-
图像分类---汇总贴
需要的知识点:误分类分析代码篇:分类可视化篇:自我搭建小的网络识别类似于小图片(或者串联级任务小模型,例如:微笑识别模型)经验汇总帖案例汇总贴原创 2020-10-13 15:08:00 · 263 阅读 · 0 评论 -
对深度学习图像处理做个总结
任务类型分:图像分类:目标检测:图像分割:原创 2020-10-16 18:40:58 · 619 阅读 · 2 评论 -
图像数据增广——imgaug使用方法
数据增广库有这些imgaug的整体流程为:定义变换序列(Sequential)→读入图片(imread)→执行变换(augment_images)→保存图片(imwrite)#!usr/bin/python# -*- coding: utf-8 -*-import cv2from imgaug import augmenters as iaa #imgaug testseq = iaa.Sequential([ iaa.Crop(px=(0, 16)), # 从每侧裁.原创 2020-10-11 11:15:17 · 1664 阅读 · 4 评论 -
python离线批量安装依赖包
本地python库与其离线包批量导出以及python第三方库快速批量安装pip 通过 requirements 文件,批量下载python包,批量离线安装python包python离线批量安装依赖包原创 2020-06-30 10:37:57 · 770 阅读 · 0 评论 -
window10出现安装cuda失败原因
提示说 cuda 和 cudnn 版本不兼容问题出现时,本机已经是 CUDA v10.0.130 ,cudnn 忘记查了,反正 nvcc -V没有查出来。按照这篇方法解决的,去这里下 cudnn,记得开VPN,不然速度比较慢https://developer.nvidia.com/rdp/cudnn-archive...原创 2020-06-08 21:16:24 · 2138 阅读 · 1 评论 -
深度学习训练的过程意图是亲眼
https://aistudio.baidu.com/aistudio/projectdetail/424865原创 2020-06-02 20:20:45 · 663 阅读 · 0 评论 -
学习率的问题
一般finetune用adam1e-5那就sgdm1e-5。我的设置貌似有点高。。原创 2020-05-31 20:32:27 · 708 阅读 · 0 评论 -
shuffle_seed: 0 # 数据打散的种子 干嘛用的
https://blog.youkuaiyun.com/u010589524/article/details/89371919TRAIN: # 训练配置 batch_size: 32 # 训练的batch size num_workers: 4 # 每个trainer(1块GPU上可以视为1个trainer)的进程数量 file_list: "./dataset/flowers102/train_list.txt" # 训练集标签文件,每一行由"image_name label"组成.原创 2020-05-31 08:47:49 · 595 阅读 · 0 评论 -
经典网络GoogLeNet(Inception V3)的搭建与实现(全网最佳版本)
作者总结的很好:https://blog.youkuaiyun.com/loveliuzz/article/details/79135583原创 2020-05-30 22:51:17 · 572 阅读 · 0 评论 -
paddleX LIME可解释性
使用LIME算法将模型预测结果的可解释性可视化。LIME表示与模型无关的局部可解释性,可以解释任何模型。LIME的思想是以输入样本为中心,在其附近的空间中进行随机采样,每个采样通过原模型得到新的输出,这样得到一系列的输入和对应的输出,LIME用一个简单的、可解释的模型(比如线性回归模型)来拟合这个映射关系,得到每个输入维度的权重,以此来解释模型。https://paddlex.readthedocs.io/zh_CN/latest/apis/visualize.html使用NormLIM..原创 2020-05-30 22:32:42 · 494 阅读 · 0 评论 -
传统高精度机器视觉与深度学习机器视觉如何结合?(占坑)
总结一下: 在简单、固定的情形里面,传统算法或许能在计算资源消耗上优于深度学习,但是算法的表现最多只能是媲美训练perfect的深度学习模型;但是在复杂且干扰甚多的情形下,传统算法综合来说无法媲美深度学习模型。那么传统算法如何同深度学习结合了?我根据工作经验认为主要有以下几点:数据预处理, 深度学习算法的前期数据预处理阶段需要使用传统算法进行增强,比如对某些有“缺陷”的样本进行初步筛选,比如对有些你需要网络学习的特征进行增强处理等等。 在某些深度学习模型中提供参考,比如在某些condition G原创 2020-05-28 08:50:39 · 1309 阅读 · 0 评论 -
深度学习做图像识别,和传统方式比有啥好处?
传统方法中特征提取主要依赖人工设计的提取器,需要有专业知识及复杂的调参过程,同时每个方法都是针对具体应用,泛化能力及鲁棒性较差。深度学习主要是数据驱动进行特征提取,根据大量样本的学习能够得到深层的、数据集特定的特征表示,其对数据集的表达更高效和准确,所提取的抽象特征鲁棒性更强,泛化能力更好,并且可以是端到端的。缺点是样本集影响较大,算力要求较高。总体来讲,一种是人工认知驱动的方法,一种是数据驱动的方法。应用的话看场景,只不过深度学习一直在不断拓展其应用的场景,传统方法在某些时候扔具有一定价值。原创 2020-05-28 08:48:32 · 5528 阅读 · 1 评论 -
神经网络中 warmup 策略为什么有效
这个问题目前还没有被充分证明,我们只能从直觉上和已有的一些论文[1,2,3]得到推测:有助于减缓模型在初始阶段对mini-batch的提前过拟合现象,保持分布的平稳 有助于保持模型深层的稳定性下面来看一下为什么warmup会有这样的效果。...原创 2020-05-28 00:22:54 · 518 阅读 · 0 评论 -
LIME技术个人总结和理解
方法:干涉输入,然后观察预测结果会怎样变化。实验表明这种做法在可解释性上是有用的。因为我们可以通过改变人类可以理解的组件(比如单词或图像的一部分)来改变输入,即使模型使用的是更加复杂的组件(比如词向量)作为输入的特征。LIME 背后的关键直觉就是,通过一个简单的模型来局部地(在我们想要解释的预测的附近)逼近一个黑箱模型会比全局性地去逼近这个模型要容易得多。怎么实现?(通过给改变后的输入图像设定权重的方式来实现,权重的值是改变后的图形和我们想要解释的实例的相似度的值。)图 3 所示的.原创 2020-05-26 14:23:16 · 2249 阅读 · 0 评论 -
神经网络为什么可以(理论上)拟合任何函数?
fourier 变换问题来了为啥要deep呢?答案在这里 居然特别简单 deep了你有高频的震荡了你可以efficient 的locally逼近x^2 然后就有所有local的逼近多项式了local polynomial在holder和sobolev space是optimal的 我们就扩大了空间了【这篇paper发在很一般期刊上而且题目不吸引人我一直忘记 求好心人给reference感谢评论区Yarotsky D. Error bounds for approximations转载 2020-05-27 07:07:01 · 3461 阅读 · 0 评论 -
图像分类训练技巧包
图像分类训练技巧包(一) - 知乎 图像分类训练技巧包(二) - 知乎 图像分类训练技巧包(三) - 知乎原创 2020-05-14 13:17:29 · 204 阅读 · 0 评论 -
各种高效的网络结构巡礼
暂时发现如下宝藏专栏,有空把下面的看了,根据入门先到后再重新排序。根据看完每一篇,其中有看不懂的,备注,解释,再贴出来。一文读懂卷积神经网络中的1x1卷积核 - 知乎https://zhuanlan.zhihu.com/p/40050371CNN更新换代!性能提升算力减半,还即插即用 - 知乎https://zhuanlan.zhihu.com/p/62598364为什么MobileNet及其变体如此之快? - 知乎https://zhuanlan.zhihu.com/p/641384原创 2020-05-14 13:12:10 · 197 阅读 · 0 评论 -
卷积核每一个维度的权重一样吗
都是卷积2个特点,局部连接,权重共享,但这个权重共享,每一个卷积核,比如,一个3x3×32 的卷积核,它每一个维度上的权重是共享的吗?非也,看这篇文章,有一段佳话:输入channel=32输出channel=64那么排列组合就是64*32,在这里实现了特征的组合,所以需要的权重数量是3x3×64×32卷积核中的数值会进行一个初始化,但是里面的数值其实就是权重值,标红的地方就表示,即使 同一个卷积核,每一个维度的卷积权重都是不一样的。后面更多拓展:理解分组卷积和深度可分..原创 2020-05-13 21:33:37 · 5386 阅读 · 0 评论 -
详解分类任务的视觉注意力(持续更新)
将从讲解,代码实现,复现,到甚至后面的结果验证,持续更新(22条消息)【计算机视觉】详解分类任务的视觉注意力:SENet、CBAM、SKNet (视觉注意力机制 (二))_人工智能_棠雪清芬-优快云博客https://blog.youkuaiyun.com/qq_39478403/article/details/105458511...原创 2020-05-12 14:59:50 · 329 阅读 · 0 评论 -
飞桨全流程开发工具PaddleX
https://www.bilibili.com/video/BV17i4y1b7TZ?from=search&seid=13873294106655443923原创 2020-05-12 00:40:10 · 1422 阅读 · 0 评论 -
EfficientNet文章分析的重点提取
传统增加模型精度的方法:ResNet[1]可以通过增加层数将 ResNet-18扩展到 ResNet-200 GPipe[2]通过将 CNN baseline扩展4倍,在 ImageNet[3]上实现了84.3% 的准确率。传统的模型缩放实践是任意增加 CNN 的深度 任意增加 CNN 的宽度 使用更大的输入图像分辨率缺点:需要长时间的手动调优,并且仍然会经常产生次优的性能。一篇ICML文章[4]提出了一个更有原则性的方法来扩大 CNN 的规模,从而可以获得更好的准确性和...原创 2020-05-11 23:50:28 · 738 阅读 · 0 评论 -
一张不错的图像分类的流程图,下次讲课可以用到
【转载】一步一步学用Tensorflow构建卷积神经网络 - 简书https://www.jianshu.com/p/53d6cc6bbb25原创 2020-05-08 17:29:05 · 1789 阅读 · 0 评论 -
模型推理时间测量
深度神经网络推理时间的正确测量方法https://mbd.baidu.com/newspage/data/landingsuper?context=%7B%22nid%22%3A%22news_10195188948407500349%22%7D&n_type=1&p_from=3待补充,完善。...原创 2020-05-06 10:19:47 · 2992 阅读 · 0 评论 -
bug记录---keras引入不包含头部加全连接层导致参数巨大
即使我用的MobileNetV2 预训练模型,发现执行以下操作:base_model = MobileNetV2(weights=None, include_top=False, pooling=None, input_shape=(ROWS, COLS, CHANNELS), classes=2)base_model.load_weights('/home/ma-user/work/we...原创 2020-05-04 11:48:46 · 453 阅读 · 0 评论 -
黄埔学院❸ | 线上预科班——课节3: 十行代码高效完成深度学习POC
16.55 工业检测上 实力分割 和语义分割的应用场景。19.18 X 是计算量,Y是 表示模型的精度,还有个维度,圈圈的大小,圈圈越大,表示它的内存开销越大,精度最高的是这种 基于 automl 做的模型,19.4835.5538.30 训练的预热。在做 迁移学习的时候, 预训练的数据和你 现在的业务场景数据分布是不一样的,所以,怎么样调参更好呢...原创 2020-05-03 01:30:30 · 310 阅读 · 0 评论 -
notebook里离不开的画图神器matplotlib--子图subplot和标题(title),标注(annotate),文字说明(text)
子图subplot参考:https://www.jianshu.com/p/de223a79217ahttps://www.cnblogs.com/caizhou520/p/11224526.htmlhttps://www.cnblogs.com/xiaoboge/p/9683056.html标题(title),标注(annotate),文字说明(text) 参考:htt...原创 2020-05-02 14:12:55 · 949 阅读 · 1 评论 -
bug实录---图像分类--华为modelarts
解决办法: data = np.ndarray((count, ROWS, COLS, CHANNELS), dtype=np.uint8) data = np.ndarray((count, ROWS, COLS, CHANNELS), dtype=np.uint8)uint8 无符号整数(0 to 255) 错误2:...原创 2020-05-01 23:28:25 · 505 阅读 · 0 评论 -
图像分类怎么增量学习
增量学习 和 在线学习 的不同是:在线学习是一个一个新增样本,增量是一批嗯,因为CV在线学习一般来不及处理,应用场合不多你先把一般的步骤搞好再说吧,接口弄好了,训练不是很简单的事情...原创 2020-04-18 16:14:57 · 1442 阅读 · 2 评论 -
深度学习中的数据增强(上)
feic非【技术综述】 深度学习中的数据增强(上) - 知乎https://zhuanlan.zhihu.com/p/38345420【技术综述】深度学习中的数据增强(下) - 知乎https://zhuanlan.zhihu.com/p/38437739...原创 2020-04-15 16:20:58 · 357 阅读 · 0 评论 -
PyTorch Hub官方模型库一行代码复现主流模型
剑指TensorFlow,PyTorch Hub官方模型库一行代码复现主流模型 - 知乎https://zhuanlan.zhihu.com/p/68693476原创 2020-04-15 16:17:50 · 782 阅读 · 0 评论 -
图像分类置信度区域可视化工具
记得一起blu老哥给过一个相关的工具链,但这个更加系统简单。Grad-CAMGrad-CAM是指Gradient-weighted Class Activation Mapping,研究人员提出利用这种梯度权重激活映射来对卷积神经网络的分类进行解释,在输入的图片中粗略地显示出模型预测出的类别对应的重要性区间。这种方式可以广泛试用于CNN模型家族的模型预测可视化过程。上图中可以看到对...原创 2020-04-15 13:20:31 · 2803 阅读 · 0 评论 -
图像分类之数据清洗
占坑每个类种类数据的数量分布统计图表用直方图或者柱形图表示原创 2020-04-04 20:55:17 · 3546 阅读 · 3 评论