- 博客(56)
- 收藏
- 关注
转载 FinalShell下载地址
FinalShell是一体化的的服务器,网络管理软件,不仅是ssh客户端,还是功能强大的开发,运维工具,充分满足开发,运维需求.特色功能:云端同步,免费海外服务器远程桌面加速,ssh加速,本地化命令输入框,支持自动补全,命令历史,自定义命令参数Windows版下载地址:http://www.hostbuf.com/downloads/finalshell_install.exemacOS版下载地址:http://www.hostbuf.com/downloads/finalshell_insta
2021-12-13 17:29:00
1430
原创 预训练网络的模型微调方法
是什么神经网络需要数据来训练,从数据中获得信息,进而转化成相应的权重。这些权重能够被提取出来,迁移到其他的神经网络中。迁移学习:通过使用之前在大数据集上经过训练的预训练模型,我们可以直接使用相应的结构和权重,将他们应用在我们正在面对的问题上。即将预训练的模型“迁移”到我们正在应对的特定问题中。在选择预训练模型时需要注意,如果我们的问题与预训练模型训练情景有很大出入,那么模型所得到的的预测结果会非常不准确。举例来说,如果把一个原本用于语音识别的模型用作用户识别,那结果肯定是不理想的。ImageNe..
2021-12-06 10:28:26
3925
原创 直观了解CNN
CNN解释器https://poloclub.github.io/cnn-explainer/GitHubhttps://github.com/poloclub/cnn-explainer论文https://arxiv.org/abs/2004.15004
2021-11-25 11:07:25
2027
原创 inductive bias理解
神经网络中有很多稀奇古怪的词,让人不能通过字面意思知道其内涵。弯弯绕绕,思考一番,不禁感叹竟原来如此。inductive bias :初读Vision Transformer时,文中提到CNN 具有天然的inductive bias。让人不解。哈哈~归纳,我懂;偏置,我亦懂。归纳偏置 what 玩意儿?(脑补黑人问号脸)有问题就会有答案我打开了知乎……在卷积神经网络中,我们假设特征具有局部性的特性,即当我们把相邻的一些特征放在一起,会更容易得到“解”即使这个问题下最高赞的回答说得很清楚。但
2021-11-09 19:10:59
1058
原创 在jupyter notebook中DLL找不到指定模块
曲线救国打开Anaconda Prompt,输入conda info -e。【查看已经创建的环境】输入conda activate name(name是你想切换的环境)【激活环境】conda install ipykernel 【安装必要插件】or pip install ipykernel -i https://pypi.tuna.tsinghua.edu.cn/simple【通过镜像源安装,快】python -m ipykernel install --name Name (Name是此环.
2021-11-03 22:41:35
584
1
转载 多分类问题下使用softmax进行归一化原因
参考:https://zhidao.baidu.com/question/243011762234251204.html先理解max. 对一个三类问题,bai某样本经过NN处理后,du最后一层zhi输出值为[24,3,0.1]的话dao,那么经过zhuanmax之后的结果为[1,0,0]。对不?至于为啥要max,输出结果本来挺奇怪,经过max以后就是categorical 的了,那么样本的类标就可以和他的预测值一起合体 直观地计算cost function。我们最需要的其实是max,但是max有个
2021-09-15 20:46:03
899
原创 正则化来龙去脉
这个讲得超通俗易懂https://blog.youkuaiyun.com/jinping_shi/article/details/52433975
2021-09-01 10:51:44
168
原创 郑良老师在行人重识别的一篇综述论文中引用的典故翻译
郑良老师在行人重识别的一篇综述论文中引用的古典翻译《Person Re-identification: Past, Present and Future》https://arxiv.org/pdf/1610.02984.pdfAccording to Homer (Odyssey iv:412), Mennelaus was becalmed on his journey home from the Trojan War. He wanted to propitiate the gods and ret
2021-08-21 22:04:25
292
转载 独热编码如何实现
参考链接 通常需要处理的数值都是稀疏而又散乱地分布在空间中,然而,我们并不需要存储这些大数值,这时可以用独热编码。 例如:我们需要处理4维向量空间,当给一个特征向量的第n个特征进行编码时,编码器会遍历每个特征向量的第n个特征,然后进行非重复计数。若第n个特征的最大值为K,则就把这个特征转换为只有一个值为1而其他值都是0的K+1维向量。 encoder=OneHotEncoder(sparse=False)&
2021-08-14 11:46:18
868
原创 Github好用好用码起来
超级喜欢这样的up主找开源项目的一些途径• https://github.com/trending/• https://github.com/521xueweihan/HelloGitHub• https://github.com/ruanyf/weekly• https://www.zhihu.com/column/mm-fe特殊的查找资源小技巧-常用前缀后缀• 找百科大全 awesome xxx• 找例子 xxx sample• 找空项目架子 xxx starter / xxx boi
2021-08-06 16:40:07
150
原创 有个exe文件删不掉怎么办
不小心下载了有病毒的应用程序,想要卸载,却说文件正在使用无法删除,一筹莫展的时候,热心网友给了一个超绝超简单的解决办法:把.exe改成.jpg,然后重启电脑,就可以删除了绝绝子~
2021-08-05 16:56:15
6265
1
原创 解决安装faiss-gpu失败的问题
安装faiss-gpu出现问题:尝试使用:conda install -c conda-forge faiss-gpu参考
2021-05-27 14:00:26
4654
3
原创 ignite是什么
https://www.cnpython.com/pypi/pytorch-ignite一个轻量级的库帮助在pytorch中训练神经网络Ignite可以在几行代码中编写紧凑单功能齐全的培训循环在没有样板的情况下,可以获得一个包含指标、前提停止、模型检查点和其他功能的培训API文档和库的概述请查看example,了解如何使用ignite来训练各种类型的网络,以及如何使用visdom或tensorboardX进行训练可视化。...
2021-05-25 13:43:52
274
原创 AttributeError: module ‘torch.utils‘ has no attribute ‘data‘ 解决方法
只import torch时,使用b = torch.utils.data.SequentialSampler(a)就会报错:AttributeError: module ‘torch.utils’ has no attribute ‘data’解决办法:import torch.utils.data就阔以啦~
2021-05-25 10:21:01
1368
原创 tensorboard可视化
tensorboard命令行(1)进入程序所在的虚拟环境:conda activate XXX(2)tensorboard --logdir=……\log
2021-05-24 22:39:05
2165
转载 Requirement already satisfied错误解决
问题:pip install 的时候报错,一大串Requirement already satisfied解决方法如下:Step1:打开CMD输入:pip install --target=d:\python\python37\lib\site-packages urllib3在" --target= " 加上安装路径,反正后面是接上\lib\site-packages就行。Step2:安装以候还会出现其他的错误,就加上国内镜像源,输入以下代,问题就解决了:pip ins
2021-05-21 21:04:19
6284
转载 张量的基本操作
可参考pytorch中文文档、pytorch英文文档参考:https://zhuanlan.zhihu.com/p/360113125一,张量的基本操作Pytorch中,张量的操作分为结构操作和数学运算,其理解就如字面意思。结构操作就是改变张量本身的结构,数学运算就是对张量的元素值完成数学运算。常使用的张量结构操作:维度变换(tranpose、view等)、合并分割(split、chunk等)、索引切片(index_select、gather等)。 常使用的张量数学运算:标量运算、向...
2021-05-15 20:51:32
1201
转载 pytorch计算图像数据集的标准差
pytorch 计算图像数据集的均值和标准差在使用torchvision.transforms进行数据处理时我们经常进行的操作是:transforms.Normalize((0.485,0.456,0.406), (0.229,0.224,0.225))前面的(0.485,0.456,0.406)表示均值,分别对应的是RGB三个通道;后面的(0.229,0.224,0.225)则表示的是标准差这上面的均值和标准差的值是ImageNet数据集计算出来的,所以很多人都使用它们但是如果你想.
2021-05-14 14:43:01
703
原创 显存爆炸和pin_memory
参考:https://zhuanlan.zhihu.com/p/117270644训练模型训练一半时显存爆炸的问题解决:pin_memory:表示要将load进来的数据是否要拷贝到pin_memory区中,其表示生成的Tensor数据是属于内存中的锁页内存区,这样将Tensor数据转移到GPU中速度就会快一些,默认为False。通常情况下,数据在内存中要么以锁页的方式存在,要么保存在虚拟内存(磁盘)中,设置为True后,数据直接保存在锁页内存中,后续直接传入cuda;否则需要先从虚拟内存中传入锁
2021-04-30 20:38:18
10703
3
转载 python相对路径的表示方法
举例:现在 6-2.py 想使用/data/lastfm-2k/user_artists.dat因为 6-2.py 和 data 是同一级目录,所以正确的写法应该是:
2021-04-29 19:03:02
486
转载 训练模型时候显存爆炸的一种可能性以及解决办法
转载:https://wstchhwp.blog.youkuaiyun.com/article/details/108405102模型训练的时候,爆显存了,可以调整batch,对数据进行crop等等操作。今天发现一个模型,训练ok,每次测试的时候爆显存。开始以为是因为用了全图(1920x1080略大)进行inference,这是一方面。但后来发现忘了用with torch.no_grad():这导致模型运算的时候不能释放显存(记录了梯度信息),所以显存巨大。加了之后,用了不过3G显存就够了。确实inference不
2021-04-29 17:51:01
3489
转载 Python PEP8 编码规范
原文链接:http://legacy.python.org/dev/peps/pep-0008/https://blog.youkuaiyun.com/ratsniper/article/details/78954852item detailPEP 8Title Style Guide for Python CodeVersion c451868df657Last-Modified 2016-06-08 10:43:53 -0400 (Wed, 08 Jun 2016)Author Guido van R
2021-04-23 13:23:17
194
转载 深度学习中的epoch,batchsize,iteration都是什么?
转载:https://www.jianshu.com/p/e5076a56946c一切的一切,要从机器学习中的梯度下降法说起。首先让我们来回顾一下这个常见的不能再常见的算法。梯度下降法是机器学习中经典的优化算法之一,用于寻求一个曲线的最小值。所谓"梯度",即一条曲线的坡度或倾斜率,"下降"指代下降递减的过程。梯度下降法是迭代的,也就是说我们需要多次计算结果,最终求得最优解。梯度下降的迭代质量有助于使输出结果尽可能拟合训练数据。梯度下降法中有一个称为学习率的参数,如上图左所示,在算法开始时,步长更大
2021-04-06 20:33:53
443
原创 Windows下安装apex
下载apexgit clone https://github.com/NVIDIA/apex.git安装失败出现RuntimeError: Cuda extensions are being compiled with a version of Cuda that does not match the version used to compile Pytorch binaries. Pytorch binaries were compiled with Cuda XXXX问题时:说.
2021-04-04 20:16:11
695
转载 CUDA、CUDNN在windows下的安装及配置--转载
参考文章全网最详细 | Windows 安装 TensorFlow2.0 GPU 详细教程Wind10安装anaonda+cuda10.1+cudnn+pytorch+tensorflow-gpuwin10+GTX1050Ti+anaconda3+tensorflow1.14.0+cuda10.0+cudnn7.6.1.34(带GPU使用检测)一、安装前的准备(1)查看自己N卡支持的CUDA版本,打开NVIDIA控制面板,选择系统信息查看系统信息CUDA10.1(2)NVIDIA
2021-03-25 17:01:55
264
转载 jupyter notebook使用教程
转载:https://blog.youkuaiyun.com/qq_27825451/article/details/84427269一、什么是jupyter1、简介:jupyter notebook是一种 Web 应用,能让用户将说明文本、数学方程、代码和可视化内容全部组合到一个易于共享的文档中。它可以直接在代码旁写出叙述性文档,而不是另外编写单独的文档。也就是它可以能将代码、文档等这一切集中到一处,让用户一目了然。Jupyter这个名字是它要服务的三种语言的缩写:Julia,PYThon和R,这个名字与“木
2021-01-21 13:59:04
2114
原创 OpenCV安装
下载OpenCV:https://opencv.org/releases/双击运行安装包,选择安装路径,然后点击extract然后去pycharm 试试如果报错,说明opencv没安装好,可以使用cmd命令尝试安装pip install opencv-python
2021-01-19 15:30:38
194
转载 理解卷积神经网络CNN中的特征图 feature map
转载:https://blog.youkuaiyun.com/boon_228/article/details/81238091feature map的含义 在每个卷积层,数据都是以三维形式存在的。你可以把它看成许多个二维图片叠在一起,其中每一个称为一个feature map。在输入层,如果是灰度图片,那就只有一个feature map;如果是彩色图片,一般就是3个feature map(红绿蓝)。层与层之间会有若干个卷积核(kernel),上一层和每个feature map跟每个卷积核做卷积,都会产...
2021-01-07 18:00:20
3091
转载 深度学习网络中backbone
backbone这个单词原意指的是人的脊梁骨,后来引申为支柱,核心的意思。在神经网络中,尤其是CV领域,一般先对图像进行特征提取(常见的有vggnet,resnet,谷歌的inception),这一部分是整个CV任务的根基,因为后续的下游任务都是基于提取出来的图像特征去做文章(比如分类,生成等等)。所以将这一部分网络结构称为backbone十分形象,仿佛是一个人站起来的支柱。...
2021-01-07 17:28:02
454
转载 Apriori算法
1.Apriori算法简介Apriori算法是经典的挖掘频繁项集和关联规则的数据挖掘算法。A priori在拉丁语中指"来自以前"。当定义问题时,通常会使用先验知识或者假设,这被称作"一个先验"(a priori)。Apriori算法的名字正是基于这样的事实:算法使用频繁项集性质的先验性质,即频繁项集的所有非空子集也一定是频繁的。Apriori算法使用一种称为逐层搜索的迭代方法,其中k项集用于探索(k+1)项集。首先,通过扫描数据库,累计每个项的计数,并收集满足最小支持度的项,找出频繁1项集的集合。该集
2020-12-27 19:48:25
14238
1
转载 度量学习
转载:https://blog.youkuaiyun.com/Nehemiah_Li/article/details/44230053度量学习(MetricLearning)度量(Metric)的定义在数学中,一个度量(或距离函数)是一个定义集合中元素之间距离的函数。一个具有度量的集合被称为度量空间。1为什么要用度量学习?很多的算法越来越依赖于在输入空间给定的好的度量。例如K-means、K近邻方法、SVM等算法需要给定好的度量来反映数据间存在的一些重要关系。这一问题在无监督的方法(如聚类)中...
2020-12-26 15:51:30
515
转载 卷积神经网络的三个特性
转载:elecfans.com/emb/fpga/20171116580425_2.html形象地说,就是模仿你的眼睛,想想看,你在看东西的时候,目光是聚焦在一个相对很小的局部的吧?严格一些说,普通的多层感知器中,隐层节点会全连接到一个图像的每个像素点上,而在卷积神经网络中,每个隐层节点只连接到图像某个足够小局部的像素点上,从而大大减少需要训练的权值参数。对于一个 1000∗1000 的输入图像而言,如果下一个隐藏层的神经元数目为 106 个,采用全连接则有 1000∗1000∗106=101.
2020-12-21 14:03:28
11114
转载 长尾问题
转载:https://blog.youkuaiyun.com/fuxin607/article/details/105253176现实生活中的计算视觉问题往往会存在长尾问题,即类别的数据量分布不均衡,有的类样本非常多,而有的类却非常少。一.单标签分类。 1.Decoupling representation and classifier for long-tailed recognition[ICLR2020]。 2.BBN: Bilateral-Branch Network with Cumulative
2020-12-14 17:27:06
1400
转载 图像空间尺度理论
转载:https://www.cnblogs.com/chillblood/p/3722031.html对现实中物体的描述一定要在一个十分重要的前提下进行,这个前提就是对自然界建模时的尺度。当用一个机器视觉系统分析未知场景时,计算机没有办法预先知道图像中物体的尺度,因此我们需要同时考虑图像在多尺度下的描述,获知感兴趣物体的最佳尺度。图像的尺度空间表达指的是图像的所有尺度下的描述。一、金字塔多分辨率在早期计算机视觉领域中,金字塔是图像多尺度表示主要表达形式。图像金字塔化一般包括两个步骤:首
2020-12-13 16:57:32
1242
翻译 论文(四)Detecting 32 Pedestrian Attributes for Autonomous Vehicles
摘要:对于城市地区的自动驾驶车辆来说,行人无疑是最安全的道路使用者之一。在本文中,我们解决了行人联合检测和识别32个行人属性的问题。这些包括视觉外观和行为,也包括道路交叉口的预测,这是一个主要的安全问题。为此,我们引入了一个依赖于复合领域框架的多任务学习(MTL)模型,有效地实现了这两个目标。每个字段对行人实例进行空间定位,并对其进行属性预测。这个公式自然地利用了空间上下文,使它非常适合低分辨率的场景,如自动驾驶。通过增加共同学习的属性的数量,我们突出了一个与梯度尺度相关的问题,这在具有大量任务的MTL
2020-12-09 08:16:07
189
转载 深度卷积神经网络中的patch
转载:在阅读基于深度卷积神经网络的图像识别、分类或检测的文献时经常看到“patch”,不是很能理解,后来就总结了一下。通过阅读,“patch”似乎是CNN输入图像的其中一小块,但它究竟是什么呢?当使用CNN解决问题时,“patch”什么时候开始起作用?为什么我们需要“patch”? “patch”和内核(即特征检测器)之间有什么关系?在CNN学习训练过程中,不是一次来处理一整张图片,而是先将图片划分为多个小的块,内核 kernel (或过滤器或特征检测器)每次只查看图像的一个块,这一个小块.
2020-12-09 00:07:26
6617
2
原创 论文(二)Saliency-Guided Attention Network for Image-Sentence Matching
DOI:10.1109 / ICCV.2019.00585摘要:本文研究图像和语义的匹配任务,其中学习适当的表示法以弥合图像内容和语言使用者之间的语义鸿沟是主要挑战。 与以前主要采用对称体系结构来代表两种模式的先前方法不同,我们引入了显著性引导注意力网络(SAN),其特征在于在视觉和语言之间建立不对称链接,从而有效地学习细粒度的跨模态 相关性。 拟议的SAN主要包括三个部分:显着性检测器,显着性加权视觉注意(SVA)模块和显着性文本注意(STA)模块。 具体地,显着性检测器提供视觉上的显着性信息
2020-12-08 18:52:43
2512
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人