
深度学习
文章平均质量分 69
分享自己科研总结
SuperChuangChuang
这个作者很懒,什么都没留下…
展开
-
【附代码实现】Attention注意力模块的keras\tf实现(ECA、BAM、Coordinate、DualAttention、GlobalContext等)
文章目录前言1. ECA2. Coordinate attention3. Dual attention4. FrequencyChannelAttention5. BAM6.GlobalContext部分参考文献前言研究生阶段的一些工作、因为涉及到了注意力方面的研究,所以复现了一些比较出名的注意力模块,这些都是我和朋友根据自己理解复现的,用的是keras,不保证复现的正确性,欢迎交流。1. ECAhttps://blog.youkuaiyun.com/qq_35054151/article/details/原创 2022-05-24 16:12:12 · 3761 阅读 · 0 评论 -
【附代码实现】图像差分法
文章目录前言1.差分法2.效果图2.程序前言研究生阶段用到了一点图像差分的技术,现在分享出来,算是对工作的一些总结吧1.差分法面部表情图像在采集时难免会引入光照、背景等噪声,并且人脸表情自身还存在着个体差异。针对个体差异及环境噪声对抑郁症识别的影响,使用人脸表情图像差分方法,最大化保留人脸表情信息的同时,消除个体差异和环境噪声。实验中选取每个受试者的第一帧图像作为标准帧,其余图像作为被测帧进行图像差分:针对光线图像噪声等自然条件干扰的影响,使用高斯滤波器对图像进行平滑降噪,抑制噪声。将被测帧在原创 2022-05-24 15:55:26 · 2608 阅读 · 0 评论 -
【附代码实现】光流法大全(DeepFlow、DenseFlow、DisFlow、FbFlow、PCAFlow、SimpleFlow、TV_L1)
文章目录前言一、DIS光流法1.1 理论1.2 效果图1.3 程序二、DeepFlow光流法2.1 效果图2.2 程序三、DeepFlow光流法3.1 效果图3.2 程序四、FB光流法4.1 效果图4.2 程序五、PCA光流法5.1 效果图5.2 程序六、PCA光流法6.1效果图6.2 程序七、TV_L1光流法7.1 效果图7.2 程序前言我研究生阶段是做深度学习情感识别的,在研究阶段曾经尝试过使用光流法来捕捉情感的变化,也花费了大量的时间去尝试各种光流法,走了不少弯路。现在研究生毕业了,就总结以下之前原创 2022-05-24 15:40:14 · 8192 阅读 · 4 评论 -
Grad-Cam梯度类激活&卷积输出特征可视化&卷积核可视化【附实现代码】
前言梯度类激活映射(Grad-CAM)通过生成类激活图 (Class activation map)来可视化CNN的关注区域, 类激活图使用区域级的特征高亮方式, 以突出与特定类别最相关的区域。Zhou 等人[62]认为, 随着 CNN 层数的加深, 中间层特征图编码中与决策无关的信息越来越少, 因此越往深层目标信息越抽象, 语义信息也越丰富。CNN 的最后的卷积层在高层语义信息上达到最佳, 其对应的特征图含有最抽象的目标级语义信息, 且每个通道检测到目标的不同激活部位。 因此, 通过对最后的特征图进行原创 2022-03-17 16:28:50 · 7859 阅读 · 7 评论 -
迁移学习学习摘要
1.迁移学习为什么一般只训练最后几层而不训练前面层 对于计算机视觉而言,模型的前几层提取到的特征都是图像的低级特征,如图像的边缘信息等,这些特征都是通用的;而模型的后几层提取到的高层特征则具有特定的语义,与具体的任务相关。 迁移学习一般是将大规模训练数据集的模型迁移到小数据集上,大规模数据集提取到的底层特征泛化能力更高,所以底层网络参数不用更新,一般其权重冻结;针对训练集不同和任务不同,要开放高层网络的权重。...原创 2020-05-30 15:30:33 · 363 阅读 · 0 评论