- 博客(122)
- 资源 (2)
- 收藏
- 关注

原创 CrowdPose: Efficient Crowded Scenes Pose Estimation and A New Benchmark 论文阅读
一、这是Alphapose的最新工作 特点,针对的是 “ crowd”场景下的多人姿态估计。 相对于以往的一些多人姿态估计工作而言,基本上都是不合适应用在“Crowd”场景之下的,比如Mask-RCNN训练的时候,会直接去除数据中的“Crowd”数据(MSCOCO)有这个标签,MPII没有这个标签。 ...
2019-03-06 15:57:50
1920
原创 Matplotlib找不到Times New Roman的解决方案
在使用seaborn或者matplotlib进行论文画图的时候,一般都会用。字体,在我查阅资料后终于尝试到了一个可行的解决方案。文件夹下(如果不存在就新建一个)将这四个文件上传到服务器的。
2023-12-28 10:42:05
3134
1
原创 pytorch如何混合进度训练transformer【各种不同方式】
Hugging Face 的 Transformers 库为我们提供了大量预训练的 Transformer 模型,以及一个易于使用的训练和微调工具——Trainer。在 Trainer 中,我们可以很容易地启用混合精度训练,也称为自动混合精度 (AMP) 训练。要在 Hugging Face 的 Trainer 中启用混合精度训练,只需要在创建 Trainer 时设置fp16=True。
2023-07-22 15:53:27
2841
1
原创 Python绘制多条折线图对比
我们这里要把这两个数据画在一个这线图里,要求如下:1.用折线图画在一起,target只需要画一条横线就行,reals每个元素有两个值,第一个值是横坐标,第二个是纵坐标;纵轴单位token/s,横轴单位ngb2.给每个数据点标记上纵坐标值,target也要标记值并且用红色。
2023-07-05 14:47:57
1246
原创 Ninja is required to load C++ extensions |【终极 - 问题解决】
没有的话执行:sudo apt-get install build-essential。
2023-07-03 20:58:55
3126
原创 非连续内存上执行计算操作,和连续内存上执行计算操作有什么效率上的区别?
总之,与非连续内存相比,连续内存上执行计算操作通常具有更高的效率。但在某些情况下,非连续内存布局可能会对内存使用率和数据结构的灵活性有所帮助。因此,根据具体的应用场景和需求来选择适当的内存布局是非常重要的。在计算机内存中,数据可以存储在连续(contiguous)或非连续(non-contiguous)的内存区域。两者在执行计算操作时的效率上存在一定的区别。
2023-06-18 20:53:14
444
原创 python求解线性规划问题
在这个示例中,最优解为 x = 2 和 y = 2,最优值为 Z = 8。接下来,我们来看一个简单的线性规划问题示例。默认求解的是最小化问题。要在 Python 中求解线性规划问题,通常可以使用。注意,我们将目标函数的系数乘以 -1,因为。首先,确保你已经安装了。最大化:Z = 3x + 2y。
2023-06-16 17:34:32
3133
3
原创 如何清理docker在var目录下的大量空间占用
目录下可能会产生大量空间占用,主要原因是镜像、容器、数据卷和临时文件的累积。悬空镜像是指没有与任何容器关联的镜像。这将删除所有未使用的镜像、容器、网络和数据卷。执行上述操作后,Docker 在。目录下的空间占用应该会大幅减少。
2023-06-16 16:32:12
2090
原创 如何安全的清理/var 下的docker临时文件,在不停用docker正在运行的容器情况下
在不停止正在运行的 Docker 容器的情况下清理 `/var` 目录下的临时文件有一定的风险,因为这可能导致正在运行的容器出现问题。这些命令只会删除未使用的资源,因此对正在运行的容器的影响较小。然而,在尝试清理 `/var/lib/docker/tmp` 目录下的临时文件时,你需要格外小心。这个命令会列出 `/var/lib/docker/tmp` 目录下修改时间超过 7 天的文件。在删除文件之前,请仔细检查这些文件是否可以安全删除。在删除任何文件之前,请务必仔细检查,以确保不会影响正在运行的容器。
2023-06-16 16:31:07
1580
原创 如何安全的清理/var 下的docker临时文件,在不停用docker正在运行的容器情况下
在执行上述操作时,请确保你了解这些操作可能带来的风险。在删除任何文件之前,请务必仔细检查,以确保不会影响正在运行的容器。在尝试这些操作之前,建议备份重要数据和配置。这些命令只会删除未使用的资源,因此对正在运行的容器的影响较小。目录下的临时文件有一定的风险,因为这可能导致正在运行的容器出现问题。悬空镜像是没有与任何容器关联的镜像。目录下的临时文件时,你需要格外小心。在删除文件之前,请仔细检查这些文件是否可以安全删除。目录下修改时间超过 7 天的文件。在不停止正在运行的 Docker 容器的情况下清理。
2023-06-16 16:30:36
2610
1
原创 如何清理docker在var目录下的大量空间占用
Docker 在 `/var` 目录下可能会产生大量空间占用,主要原因是镜像、容器、数据卷和临时文件的累积。你还可以手动删除 `/var/lib/docker/tmp` 目录下的临时文件。- 删除网络:`docker network rm <NETWORK_ID>`- 删除数据卷:`docker volume rm <VOLUME_ID>`- 删除容器:`docker rm <CONTAINER_ID>`- 删除镜像:`docker rmi <IMAGE_ID>`- 列出容器:`docker ps -a`
2023-06-16 16:30:25
3031
转载 【Bug修复】error: invalid static_cast from type ‘const torch::OrderedDict<std::basic_string<char>, std:
转自知乎大哥本人实测有效!!!
2023-06-01 11:00:20
476
原创 Failed to initialize NVML: Driver/library version mismatch
系统本来可以正常跑深度学习的,突然就报错了。把nvidia开头的,几个执行下面的代码。2、网上的其他方法,重新装驱动,装不上。然后执行下面的命令检查下。
2023-04-18 12:49:02
450
原创 【分布式深度学习-文章阅读】GPipe: Efficient Training of Giant Neural Networksusing Pipeline Parallelism
1、这篇文章是近期大多数做分布式并行训练的 baseline之一 ;2、这篇文章侧重点就是model parallelism,往细了说就是layer parallelism,再通俗点就是,grouped layer parallelism;3、曾经最常用的是,data parallelism,但是随着transformer等大模型的出现,不用model parallelism基本上等于放弃研究了,所以model parallelism再次回归,然后大热。......
2022-08-15 10:52:31
1648
原创 【NLP入门-中文文本分类】步骤详解,附keras代码
一、NLP 文本分类步骤第一步:准备数据集,X:句子;Y:类别第二步:分词,并去除停词(中文理由停词,比如而且,逗号之类;英文的话需要做词的时态转换之类)第三步:word2idx/word2vec;这里word2vec,可以利用语料库,训练一个单词转为向量的model,这个模型你输入单词,会给你一个向量,并且能计算单词的相似度,相当于提前给词语做了归一化;word2idx就直接用词汇表的id作为向量的元素;第四步:建模训练二、代码1、数据准备➕预处理我们采用,头条新闻数据集
2022-02-28 22:58:29
3334
原创 【文章阅读visual granding】GuessWhat?! Visual object discovery through multi-modal dialogue
一、文章主要有两个贡献点 1、建立了基于对话的visual granding数据集 2、给出了基于深度学习的baseline model二、数据集这是数据集中的两个例子,可以发现每一张图有一个instance级别的标注,并且对应若干个问答形式的描述!任务的目的在于通过这些问答形式的描述,自动的确定所描述的目标物体是谁!三、基础模型从图中可以发现,模型的结构还是比较简单的,有5类不通的输入内容:1、context也就是全局上下文,也就是整张图像;2、crop,也...
2020-06-08 20:13:02
497
原创 Pytorch 在训练NLP相关模型中的一些BUG
1、RuntimeError: Expected `len(lengths)` to be equal to batch_size, but got 9 (batch_size=18)这个问题,有很多人讨论。主要是涉及到使用nn.DataParallel 利用多GPU训练RNN模型会碰到这个问题,主要是因为输入RNN的之前数据为 b,c,h;但是输入的时候会利用permute(1, 0)变成c,b,h;这个时候DataParallel会把数据变成c//2,b,h;此时问题就出现了,tor.
2020-06-03 15:41:05
2466
2
原创 【文章解读】FreeAnchor: Learning to Match Anchors for Visual Object Detection
一、简介 这些年已经有不少基于深度学习的目标检测的文章了,从最开始的Anchor based 到后来的 Anchor Free。但是解读这篇文章,主要是由于他的出发点比较新颖---Free Anchor。 虽然叫Free Anchor,但是依然是Anchor based的方法,只不过他打破了一直以来的Anchor分配机制。二、回顾Anchor分配机制 ...
2020-04-04 23:31:29
1751
原创 【文章阅读】The Devil is in the Decoder【计算机视觉中的上采样方式-6种】
一、这是google的一篇探索的文章,探讨decoder结构的一篇文章二、主要贡献点 1、 探讨了不同的几种decoder的优劣,提出自己的上采样方案 2、 提出针对上采样的residual connection 3、 横向多任务对比各种不同方案三、不同结构decoder的对比TransposedConvolution:这个也是我们常说的“反卷...
2019-11-18 14:22:47
653
原创 pytorch loss 出现nan,原因之一,计算图中存在torch.sqrt或者 **0.5,以及如何解决
今天写一个loss函数dist=torch.sqrt(x*x+y*y)loss=soomthL1loss(dist,gt_dist)我随便写的几句示意代码,这样会导致在第一个iteration之后出现nan,第一次iteration之内,还是可以看到loss不为nan的。解决办法: 1、不开方,因为开方的求导会出现在分母上,因此需要避免分母为0! 2、tor...
2019-11-11 15:08:14
8504
3
原创 【姿态估计文章阅读】PifPaf: Composite Fields for Human Pose Estimation
一、CVPR2019,内容上还是比较厉害的,代码:https://github.com/vita-epfl/openpifpaf二、主要思想 1、提出了Part Intensity Field (PIF)来提升heatmap在高分辨率下的精度 2、利用Part Association Field (PAF)来连接joints 3、本文方法主要...
2019-11-05 17:14:30
4175
原创 【姿态估计文章阅读】Single-Stage Multi-Person Pose Machines【依图科技】
一、今年ICCV2019刚出炉的文章,颜水成教授团队的,非官方代码:https://github.com/murdockhou/Single-Stage-Multi-person-Pose-Machines二、这篇文章核心思想 1、点评了下目前多人姿态估计中的现状:大多数人都在多two-stage,很多模型都是但人姿态估计结合上人体检测,这也是这两年的主要内容,效果虽然好,但是缺...
2019-11-04 15:07:13
3411
3
原创 【姿态估计文章阅读】Joint Training of a Convolutional Network and a Graphical Model for Human Pose Estimation
一、这是毫无疑问的大佬们的文章,2014年出就发布了第一版本,代码:https://github.com/max-andr/joint-cnn-mrf二、文章的核心思想 1、利用CNN做姿态估计,采用heatmap的方式来回归出关键点 2、利用人体关键点之间的结构关系,结合马尔科夫随机场的思想来优化预测结果,主要针对于网络预测的false postive。三...
2019-11-03 19:53:39
4513
3
原创 【姿态估计文章阅读】Human Pose Estimation with Iterative Error Feedback【这篇文章看的虽然有点迷糊,但是最后有一点很重要,自适应scale】
一、这是伯克利的大哥哥们在2016年发的一篇文章,也算是CNN的姿态估计,上升比较快的那几年。二、其实核心思想很像GBDT,一步步的去拟合残差。但是,不一样肯定是不一样的!放一张好看的图,GBDT的。 主要贡献: 1、提出一种自我修正的模型 2、传统模型映射是建立在“从in...
2019-11-01 18:08:40
1190
1
原创 【姿态估计文章阅读】Efficient Object Localization Using Convolutional Networks【大佬文,每一个实验都值得一看】
一、这是大佬们的一篇文章,算是比较早的利用CNN预测heatmap来做姿态估计的文章,上传时间2015年。二、这篇文章的核心思想: 1、pooling层能为网络增强一些“局部不变性”、“旋转不变性”之类的能力,也能降低参数等种种优点的同时对于回归heatmap的任务却会带来location的精度损失。因此提出了一种新的结构,用于弥补pooling的负效应,“position r...
2019-11-01 16:06:22
2297
3
原创 【姿态估计文章阅读】Structured Feature Learning for Pose Estimation
一、年份2016、港中文的文章二、代码https://github.com/chuxiaoselena/StructuredFeature用的是caffe,可视化出来的结构比较复杂不好展示,就不放图片了三、核心思想: 利用双向结构的树,优化网络对于结果的预测。也就是预测手肘的时候可以用上手腕和肩膀的信息。文章把这个用信息体现在feature map的使用上,并且采用“...
2019-10-31 16:33:16
467
原创 【简单的Pytorch回归模型案例】CNN去除随机噪声--修复2d高斯分布【pytorch demo】
一、这是个Pytorch学习案例,可以根据这个案例写自己的模型二、代码1、导入相关模块import torch from torch import nnimport torchvisionimport numpy as npimport cv2%matplotlib inlineimport matplotlib.pyplot as plt from torch....
2019-10-30 15:52:09
2210
原创 【论文阅读】【AlexNet】【dropout】ImageNet Classification with Deep Convolutional Neural Networks
一、这是AlexNet,虽然是很多年前的网络了,但是在今天依然有着举足轻重的地位!特别是其中的思想,非常关键!二、主要思想 1、采用了非饱和神经元(通过Relu-非饱和非线性函数) 2、多GPU拆分计算 3、在全连接层采用了Dropout来降低overfitting 4、利用了LRN(local response nor...
2019-06-25 20:25:22
906
原创 【论文阅读】Deep Residual Learning for Image Recognition 【ResNet】
一、论文来自于凯明大哥的团队,这也是近几年来大多数计算机视觉任务,网络baseline的基础二、核心思想 1、如何个去构建更深层的网络,因为之前的一些工作证明了,网络层次的加深有助于提高模型的性能。但是随着层级的加深,让网络的训练变得更加困难。主要表现在“梯度消失”、“退化问题”。 *针对梯度消失问题:主要会阻碍网络的收敛,这个问题的解决办...
2019-06-21 15:39:53
502
3
原创 【CNN感受野计算】python 示例含盖 vgg alexnet rtpose等
一、感受野 layer 1 : kernel size:3*3 stride:1 layer2 :kernel size:3*3 stride:1 第一层的感受野就是卷积核大小 3*3 ,第二层感受野是5*5 这个也比较好理解,对于第一层计算之后的feature map而言,每一个pixel都对应了layer1的input的3*3大小的区域;...
2019-06-18 16:26:30
736
原创 【论问阅读】VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION
一、 这篇文章,论文写的读起来很舒服,实验做的非常细,以前一直没看,看了之后发现,现在用的很多方法,都是人家玩剩下的。二、主要内容 探索更深的网络、探索小卷积核3x3、探索比对训练与测试三、VGG主要架构 基本上我们只知道VGG有两个模型,16层和19层...
2019-06-18 14:56:18
400
原创 【论文阅读】Does Learning Specific Features for Related Parts Help Human Pose Estimation?
一、CVPR2019二、主要思想 目前几乎所有的pose 网络,针对“单人姿态估计网络”,几乎都是共享全部feature 的。这个的意思从代码上来理解就是,在最后一层 1*1的那个卷积层 一次性输出所有需要预测的 joint,他们的输入都是相同的。 这篇文章的作者,这里这样做是不合理的,并不是所有的关键点都是需要共享 high-level representa...
2019-06-17 16:33:52
1872
8
原创 Caffe 手写 python layer ,利用python layer进行debug调试
一、caffe 这个框架就不介绍了,学习deeplearning的人可以不知道tensorflow ,pytorch,但是不能不知道caffe!二、caffe 框架内置了很多的layer,利用 prototxt进行调用及网络结构设计! 每一层,都需要通过设定如下的参数进行调整!看起来会比现在的很多利用python的框架麻烦,现在的很多框架想要实现一层卷积,基本上就是一行代码:...
2019-04-29 15:10:03
440
1
原创 【李航-统计学习方法】【原理与代码】第五章 决策树 decision tree python
一、决策树最基本思想: 决策树学习的算法通常是一个递归地选择最优特征,并根据该特征对训练数据进行分割,使得对各个子数据集有一个最好的分类的过程。这一过程对应着对特征空间的划分,也对应着决策树的构建。开始,构建根结点,将所有训练数据都放在根结点。选择一个最优特征,按照这一特征将训练数据集分割成子集,使得各个子集有一个在当前条件下最好的分类。如果这些子集已经能够被基本正确分类,那么...
2019-04-11 23:33:27
589
原创 【论文阅读-目标检测】Feature Selective Anchor-Free Module for Single-Shot Object Detection
这篇文章从视觉效果上来说,很大程度的提升了“小目标的”检测效果。一、主要内容这篇文章主要是针对FPN这种结构去做优化的,主要的优化点在于“如何去选择哪一层来回归目标”。以往的方法基本上都是基于“Heuristic feature selection” 以及 “overlap-based anchor sampling”“Heuristic feature s...
2019-04-11 15:23:24
2628
1
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人