
深度学习
文章平均质量分 84
上完一个学期的课程,觉得课上讲的内容比较浅显,准备再过一遍台大李宏毅老师的深度学习课程,仅以此专栏作为笔记记录。
不知道叫啥好一点
这个作者很懒,什么都没留下…
展开
-
GMOT-40: A Benchmark for Generic Multiple Object Tracking速读笔记
(一)Title前言: 这篇文章中提到GMOT和MOT并不是相同的内容,因此,这篇文章并不是关注的重点。代码: https://github.com/Spritea/GMOT40(二)Keypoints问题:现有的研究需要跟踪目标(比如行人)的先验知识,不能很好地推广到未见过的类别上(这个问题让我感到很迷惑,不知道下面introduction有没有介绍)。而General Multiple Object Tracking(GMOT)需要很少的关于目标的先验信息(这里的第二个疑问就是GMOT和M原创 2021-07-01 23:44:16 · 1939 阅读 · 0 评论 -
Temporal Shift Module for Efficient Video Understanding速读笔记
(一)Title前言: 这篇文章看了之后,相对于双流,slow fast,时序建模不需要增加额外的计算复杂度,也不需要进行3D卷积。模型部署的成本较低,同时性能较好,真不戳!!!(二) Keypoints现有方法存在的问题3D CNN方法性能好,但是计算量很大,部署成本太高。解决方法:提出Temporal Shift Module(TSM)模块能够达到3D CNN的性能,同时保持了2D的复杂性。TSM的核心思想是:shift part of the channels along t原创 2021-07-01 18:03:43 · 460 阅读 · 0 评论 -
SlowFast Networks for Video Recognition速读笔记
(一) Title(二) KeyPoints提出结合使用slow pathway和fast pathway。slow pathway 慢帧率,主要关注空间信息从图像或者稀疏的帧中提取语义信息fast pathway减少通道数,lightweight,快帧率,更多地关注动作随时间的变化信息时间速率很快,轻量级,较弱的处理空间信息的能力。不需要temporal pooling快慢结合带来了检测结果上的提升。(三) Method本文主要包括3部分内容,首先是slow pathw原创 2021-07-01 17:06:25 · 238 阅读 · 0 评论 -
Attention is all you need阅读笔记
(一) Title前言:我又来看老论文了,Transformer去年就在图像领域很火了,当时没有怎么了解这方面的内容,想着有时间的话,看看这方面的内容,要跟得上发展的步伐才行啊!首先先整理下Transformer原始论文中的内容(课上讲过),但是遗忘太多了。打算重新整理下再!(二) Summarydominant sequence transduction models(显性序列显性转导模型)往往基于复杂的循环神经网络,或者卷积神经网络。并且包含着一个编码器和一个解码器。而注意力机制在编码器和解码器原创 2021-04-04 22:04:02 · 1198 阅读 · 1 评论 -
Ubuntu18.04下安装caffe
参考:https://blog.youkuaiyun.com/mu_yue_yue/article/details/88862077利用conda create -n caffe_gpu -c defaults python=3.6 caffe-gpu我导入caffe时出现:>>> import caffeTraceback (most recent call last): File "<stdin>", line 1, in <module> File "/h原创 2020-11-30 16:08:44 · 542 阅读 · 0 评论