自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(96)
  • 资源 (1)
  • 收藏
  • 关注

原创 pip install 报错:No space left on device

指定一个build目录,用于存放缓存。build目录的空间不够。

2023-09-04 18:31:05 3785

原创 LLVM系列:1.设计思想和LLVM IR简介

本文简单介绍了LLVM项目的背景,并针对LLVM中优化器和代码生成器的模块化设计思想进行了介绍,也简单介绍了LLVM IR的特点,包括结构、变量类型、指令格式等。

2023-09-02 22:26:38 2005

原创 Ubuntu18.04安装Vulkan SDK教程方法(超详细)

注意OS的要求是否支持解压到指定目录查看目录结构x86_64/binx86_64/libconfigsource设置环境变量​ 可以通过目录中自带的脚本来设置环境变量,也可以通过下面的shell命令行来设置,当然这些都是一些临时的设置方法,有效期仅限于本次Session内。​ 永久性设置:在~/.bashrc中加入如果希望将SDK文件安装到你的系统目录下,可以参考如下步骤(感觉可以使用软链接更好一些)最后,使用loadconfig来刷新系统的加载器。

2023-09-01 16:20:27 6120

原创 解决报错:You don‘t have enough free space in /var/cache/apt/archives/.

var 目录下空间不足,apt下载时没有地方存放缓存文件。可以看到 /var/log目录的大小从4.1G变为了53M。再次执行apt-get install xxx 即可成功。apt安装package时遇到问题。删除30分钟之前的所有log。

2023-09-01 12:32:59 3399 2

原创 在shell函数中定义的变量的作用域问题

函数外定义的变量其作用域从被定义的地方开始,到shell结束或被显示删除的地方为止。函数内定义的变量其作用域是从被调用的地方开始,到shell结束或被显示删除的地方为止一个很简答的例子说明问题:```bash #!/bin/bash func_(){ var1='123' } func_ echo $var1```输出结果```bash123```因此,在调用了函数之后,函数内定义的变量在离开该函数后依然存在。这个问题非常容易导致程序出现bug,要多注意哦。

2023-08-28 15:48:09 106

原创 解决编译llvm IR文件相关报错:ld: library not found for -lzstd

报错原因:由于llvm-config --system-libs命令会使得编译选项加上-lzstd 也就是需要链接zstd这个库,zstd是一种开源无损数据压缩算法。注:确实其他库文件也可以使用相同方法解决,该方法不仅仅针对 zstd库。再次编译,即可成功。

2023-08-26 00:18:21 855

原创 LLVM编译报错解决:collect2: fatal error: ld terminated with signal 9 [Killed]

主要介绍了LLVM源码编译时报错:collect2: fatal error: ld terminated with signal 9 [Killed] 的解决方法。

2023-08-24 19:01:10 997

原创 英伟达结构化剪枝工具Nvidia Apex Automatic Sparsity [ASP](2)——代码分析

Nvidia 模型结构化剪枝工具ASP主要源码分析整理

2023-08-15 14:32:01 440

原创 英伟达结构化剪枝工具Nvidia Apex Automatic Sparsity [ASP](1)——使用方法

本文主要介绍的是ASP中的一个用于模型剪枝的模块:ASP(Automatic sparsity),该模块仅仅向python模型训练文件中添加两行代码来实现模型的2:4稀疏剪枝,同时还可以通过开启通道置换算法将绝对值较大的参数进行保留,以求对模型精度的影响最小化。可以看出,第一次训练后accuracy达到了94.77,剪枝后下降到了94.15,再次训练后重新上升到了96.6,比第一次训练还高,应该是因为模型是随便写的且数据集太简单的原因,的值设置为False即可,这一点在后续的源代码分析中也会提到。

2023-08-15 14:26:02 2361 4

原创 (超级详细)如何在Mac OS上的VScode中配置OpenGL环境并编译

作为一名初学者,如果在MAC电脑上配置VScode的OpenGL开发环境?本文将一步步,手把手带你创建完整的项目结构,并编译运行测试文件。

2023-06-22 11:14:55 10224 14

原创 解决使用keras提供的损失函数API时,梯度无法反向传播, 损失函数不下降

在使用keras提供的损失函数API时,梯度无法反向传播, 损失函数不下降

2022-10-09 23:12:41 724

原创 ubuntu22.04编译安装gcc12.2

ubuntu22.04编译安装gcc12.2

2022-09-14 10:59:56 11642 3

原创 keras导入包报错ImportError: cannot import name ‘get_config‘

ImportError: cannot import name ‘get_config’Traceback (most recent call last): File "siameseNet.py", line 6, in <module> from keras.layers import Merge File "/usr/local/lib/python3.6/site-packages/keras/__init__.py", line 25, in <module&g

2022-01-29 21:17:59 4013

原创 tf1.x究竟到底如何如何使用Embedding?

如何使用Embedding?原理与使用方法如何使用Embedding?1. 什么是OneHot编码2. 什么是embedding?3. 如何在tf1.X中使用embedding?最近需要用到Embedding做特征嵌入,但是网上找不到embedding的具体用法,东拼西凑终于看懂了,写篇文章总结一下,顺便整理一下来龙去脉。Embedding可以说是一种对离散特征进行编码的手段、而说到离散特征编码,相信大部分人第一是将会想到Onehot编码,举例回顾一下Onehot编码。1. 什么是OneHot编码

2022-01-29 01:13:57 1652

原创 容器内报错:ImportError: libGL.so.1: cannot open shared object file: No such file or directory

Traceback (most recent call last): File "image_encoder.py", line 1, in <module> from slic import slic_and_mean File "/research/slic_gan/slic.py", line 8, in <module> import cv2 File "/usr/local/lib/python3.6/site-packages/cv2/__in

2022-01-28 10:07:37 2205

原创 GitHub Actions发现、自定义actions

发现、自定义actionsAtions是驱动Workflow的基础,一个Workflow可以包含由社区所创建的actions,也可以直接repo内自己创建actions。用于Workflow的actions可以被定义于:公开的repo引用此action的Workflow所处的repo公开的Docker HUB内的容器镜像在编辑Workflow时浏览市场在repo中编辑workflow页面时,右侧会出现MArketPlace,可以用来搜索action如何引用actions?

2022-01-09 17:01:54 986

原创 GitHub Action入门简介

1. What is GitHub Actions?GItHub Actions是一个持续集成和持续交付的平台,能够让你自动化你的编译、测试和部署流程。GitHub 提供 Linux、Windows 和 macOS 虚拟机来运行您的工作流程,或者您可以在自己的数据中心或云基础架构中托管自己的自托管运行器。2. Github Actions 的组成?整体流程:在github repo中特定事件发生时,workflow会被触发。一个workflow由若干个job组成,这些job可以顺序运行,也可以

2022-01-09 13:00:50 7732

原创 持续集成、持续交付与持续部署

持续集成、持续交付、持续部署文章目录持续集成、持续交付、持续部署1. 什么是持续集成(Continuous Integration)?2. 什么是持续交付(Continuous Delivery)?3. 什么是持续部署(Continous Deployment)?4. 流程1. 什么是持续集成(Continuous Integration)?持续集成是指,频繁地将代码集成到主干上。优点快速发现错误。与一次性集成大量代码相比,每次更新一点,集成一点相当于将代码分成多个片段,有助于快速发现错误,定位

2021-12-23 21:42:05 1146

原创 【linux基本命令】文件和目录管理

文件和目录管理常用操作:Linux的文件目录结构为树形,所有的木轮和文件都在根目录下,根目录名为"/",下表列出了没有目录存放的文件目录用途/bin常见的用户指令/boot内核和启动文件/etc系统和服务的配置文件/home系统默认的普通用户的家目录/lib系统函数库目录/lost+found用于磁盘检查/mnt系统加载文件系统时常用的挂载点/opt第三方软件的安装目录/proc虚拟文件系统/rootroot

2021-12-20 19:45:24 324

原创 【linux基本命令】1. 用户管理及定时任务

1. 用户管理以及定时任务文章目录1. 用户管理以及定时任务UID:用户id,一般来说1-499是系统用户,500开始是普通用户,0是根用户。GID:组id。确认自己的id:id确认自己属于的组:groups查看当前在线用户: who新增用户: useradd XXX修改密码:password 用户名删除用户: userdel 用户名增加用户组: groupadd 组名删除用户组: groupdel 组名:如果有用户在此组中,则会删除失败查看当前系统有哪些用户:users查看详细的信息: who查看更详

2021-12-19 13:22:10 1212

原创 解决:Clipping input data to the valid range for imshow with RGB data

Clipping input data to the valid range for imshow with RGB data今天在提取彩色图像RGB通道值合成单通道图像时,出现问题:Clipping input data to the valid range for imshow with RGB data ([0..1] for floats or [0..255] for integers).先给出原因:matplotlib.pyplot.imshow()函数在处理灰度图像时,自动将其值做归

2021-12-16 03:18:18 13932

原创 Python如何永久修改sys.path

Python如何永久修改sys.path起因:这两天运行需要用命令行来运行python文件,但是总是报错ModuleNotFoundError: No module named 'xxx'(tf) liushanlin@liushanlindeMacBook-Air train % ~/miniforge3/envs/tf/bin/python3 resnet_cifar.py --checkpoints output/checkpointsTraceback (most recent call la

2021-12-11 15:06:39 5828 5

原创 STL-10数据集

STL-10数据集STL-10数据集是一个用于开发无监督特征学习、深度学习和自学学习算法的图像识别数据集。其灵感来源于CIFAR-10数据集,但经过一些修改。特别是,与CIFAR-10相比,每个类都有较少的标记训练示例,但提供了大量未标记示例,用于在监督训练之前学习图像模型。主要的挑战是利用未标记的数据(来自与标记数据相似但不同的分布)来构建有用的先验知识。我们还预计,该数据集(96x96)的更高分辨率将使其成为开发更具可扩展性的无监督学习方法的一个具有挑战性的基准。下载地址:https://cs.st

2021-12-05 20:08:38 6634

原创 【论文精读】(SGAN)Stacked Generative Adversarial Networks

Stacked Generative Adversarial Networks简要解读

2021-12-02 19:24:05 3802

原创 【论文精读】(WGAN前)Towards Principled Methods For Training Generative Adversarial Networks

Towards Principled Methods For Training Generative Adversarial Networks文章目录Towards Principled Methods For Training Generative Adversarial Networks全文梳理摘要1. 介绍训练生成模型的传统方法生成对抗网络训练生成模型的方法2. 不稳定的来源2.1 完美辨别器定理2.2 每个代价函数的后果和问题2.2.1 原始的代价函数2.2.2 用−log⁡D-\log D−l

2021-11-30 13:27:17 5376 3

原创 【论文精读】Data Augmentation Generative Adversarial Networks(DAGANs)

Data Augmentation Generative Adversarial Networks摘要神经网络的有效训练需要很多数据,在低数据情况下,参数是欠定的,学到的网络泛化能力差。数据增强通过使用存在的数据有效的缓和了这个问题,但是标准的数据增强仅能产生有限的看似合理的用来代替的数据。鉴于有可能产生更广泛的增强数据,作者设计和训练了一种生成模型进行数据增强。这种模型基于条件生成对抗模型,从源域获取数据,学习获取任何形式的数据并泛化成其他同类的数据。由于这种生成过程不依赖于这些类别,所以它可能

2021-11-26 17:52:05 2926

转载 【转载】Keras的Model模型使用(顺序结构和链式结构的用法)

Keras的Model模型使用:Keras的Model模型使用

2021-11-23 11:23:51 247

原创 【论文精读】(CGAN)Conditional Generative Adversarial Nets

Conditional Generative Adversarial Nets关于原版的生成对抗网络模型以及公式推导可以参考:【论文精读】对Generative Adversarial Net的一点理解摘要​ 生成对抗网络最近介绍了一种新的方法来训练生成模型。本文将介绍生成对抗网络的条件版本,通过简单的输入数据yyy来构建,作者希望生成器和辨别器都能够被训练。​ 作者展示了此模型能够生成以类标签为条件的MNISTMNISTMNIST数字。​ 作者还展示此模型如何能够用来学习一个多模态模型,并且提供

2021-11-23 08:03:02 2726

原创 【论文精读】对Generative Adversarial Net的一点理解

Generative Adversarial Net摘要​ 作者提出了一种新的框架,通过对抗来评估生成模型,通过同时训练两个模型:用来模拟数据分布生成模型G,以及辨别模型D,用来评估采样来自训练数据而非生成模型G的概率。​ G的训练过程是将D犯错的概率最大化,也就是让D分辨不出训练数据和生成数据的区别。​ 在任意函数G和D的的空间中存在一个独一无二的解,也就是G能够生成D无法分辨数据,以至于任意的数据被D认为是来自训练数据的概率的 12\frac{1}{2}21​.​ 在G和D被定义为多层感知机的

2021-11-22 11:23:54 1160

原创 计算机视觉3.4:理解rank-1和rank-5正确率

理解rank-1和rank-5正确率​ 在学习中,我们经常会遇到rankaccuracyrank accuracyrankaccuracy,这是什么意思呢?​ 我们举例来解释一下:假设我们正在评估一个在CIFAR−10CIFAR-10CIFAR−10数据集上训练好的神经网络,输入下图让我们的神经网络来计算出每个类别所对应的概率返回的结果如下表(左)所示:​ 类概率最高的是青蛙(97.397.3%97.3),确实也是正确的结果,如果我们重复此步骤:计算数据集中每个输入数据的类概率查看gro

2021-11-21 21:45:24 7983 1

原创 【论文精读】(Hightway Network)Training Very Deep Network 与残差网络对比

Training Very Deep Network(Hightway Network)文章目录Training Very Deep Network(Hightway Network)摘要1. 介绍&之前的工作2. 公路网络个人理解2.1 构建公路网络2.2 训练深度公路网络3. 实验3.1 优化3.2 MINISTMINISTMINIST3.3 CIFAR−10和CIFAR−100CIFAR-10和CIFAR-100CIFAR−10和CIFAR−1003.3.1 与FitnetsFitnets

2021-11-21 17:30:27 937

原创 【论文精读】Network In Network(1*1 卷积层代替FC层 global average pooling)

Network In Network文章目录Network In Network摘要1. 介绍传统卷积网络有什么问题?相同点和不同点平均池化带来的好处?2. 卷积神经网络传统卷积神经网络的问题:之前的改进工作之前改进工作存在的问题:本文所做的改进:3. NetWork In Network3.1 MLP卷积层为什么选择多层感知机?==什么是级联跨通道带参数的池化层(cascaded cross channel parametric pooling)==3.2 全局平均池化FC层有什么问题?本文的解决方法本

2021-11-20 23:54:49 1296

原创 街景房屋号码 (SVHN) 数据集

街景房屋号码 (SVHN) 数据集下载地址:(SVHN) 数据集SVHN 是一个真实世界的图像数据集,用于开发机器学习和对象识别算法,对数据预处理和格式化的要求最低。它可以被视为与MNIST 的风格相似(例如,图像是裁剪后的小数字),但包含一个数量级的标记数据(超过 600,000 个数字图像),并且来自一个明显更难、未解决的现实世界问题(识别自然场景图像中的数字和数字)。SVHN 是从谷歌街景图像中的门牌号获得的。10个班级,每个数字1个。数字'1'有标签 1,'9'有标签 9,'0'有标签 10。

2021-11-20 09:17:59 3569

原创 【论文精读】(GoogleNet&&Inception Module)Going deeper with Convolutions

Going deeper with Convolutions摘要​ 提出了一个代号为 InceptionInceptionInception的卷积神经网络结构,此结构在ILSRC2014ILSRC2014ILSRC2014分类和检测中达到了先进水平。这种结构最主要的特点是提升了网络中计算资源中的利用率。通过精心的设计,作者在保持计算量不变的情况下增加了网络的深度和宽度。​ 结构的决策基于Hebbian原则和多比例处理的直觉。Hebb学习规则是Donald Hebb在1949年提出的一种学习规则,

2021-11-20 08:14:10 1064

原创 【论文精读】(ResNet)Deep Residual Learning for Image Recognition理论部分

Deep Residual Learning for Image Recognition摘要​ 对于那些比之前所使用的网络深的多的网络,作者提出了一种残差学习框架来缓和训练这种网络的难度。​ 作者明确地将这些层重组为关于层输入的残差学习函数,而不是学习新公式的函数。​ 作者提供了广泛的经验性的证据,证明这些残差网络更容易被优化,并且能够从急剧增加的深度中获得精确度的提升。​ 作者在ImageNetImageNetImageNet数据集上评估了一个深达152152152层的残差网络——比VGGVGG

2021-11-19 08:59:00 1364

原创 【论文阅读】Very Deep Convolutional Networks For Large-Scale Image Recogniton(VGG)

Very Deep Convolutional Networks For Large-Scale Image Recogniton1. 摘要​ 作者调查了卷积网络深度对其在大规模图像识别的准确率上的影响。​ 主要贡献是对网络深度增加进行彻底的评估,用一个具有非常小卷积核的网络结构,展示了一个在现有技术配置上的重大提升,可以通过将深度加至16-19层来达到。​ 这些发现是2014年ImagetNetImagetNetImagetNet挑战的基础,作者的团队分别在定位和分类追踪赢得了第一和第二名。​

2021-11-17 13:50:24 751

原创 剑指 Offer 10- II. 青蛙跳台阶问题

剑指 Offer 10- II. 青蛙跳台阶问题一只青蛙一次可以跳上1级台阶,也可以跳上2级台阶。求该青蛙跳上一个 n 级的台阶总共有多少种跳法。答案需要取模 1e9+7(1000000007),如计算初始结果为:1000000008,请返回 1。示例 1:输入:n = 2输出:2示例 2:输入:n = 7输出:21示例 3:输入:n = 0输出:1​ 要求第 nnn阶台阶有几种上法,即 f(n)f(n)f(n),可以分解为,先上到第 n−1n-1n−1阶,然后再上一阶;或

2021-11-15 09:56:28 212

原创 剑指 Offer 10- I. 斐波那契数列

剑指 Offer 10- I. 斐波那契数列写一个函数,输入 n ,求斐波那契(Fibonacci)数列的第 n 项(即 F(N))。斐波那契数列的定义如下:F(0) = 0, F(1) = 1F(N) = F(N - 1) + F(N - 2), 其中 N > 1.斐波那契数列由 0 和 1 开始,之后的斐波那契数就是由之前的两数相加而得出。答案需要取模 1e9+7(1000000007),如计算初始结果为:1000000008,请返回 1。示例 1:输入:n = 2输出:1

2021-11-14 14:39:49 807

转载 快速幂算法

快速幂算法​ 快速幂算法能帮我们算出指数非常大的幂,传统的求幂算法之所以时间复杂度非常高(为O(指数n)),就是因为当指数n非常大的时候,需要执行的循环操作次数也非常大。所以我们快速幂算法的核心思想就是每一步都把指数分成两半,而相应的底数做平方运算。这样不仅能把非常大的指数给不断变小,所需要执行的循环次数也变小,而最后表示的结果却一直不会变。让我们先来看一个简单的例子:3^10=3*3*3*3*3*3*3*3*3*3//尽量想办法把指数变小来,这里的指数为103^10=(3*3)*(3*3)*(

2021-11-14 09:31:07 181

原创 剑指 Offer 09. 用两个栈实现队列

剑指 Offer 09. 用两个栈实现队列用两个栈实现一个队列。队列的声明如下,请实现它的两个函数 appendTail 和 deleteHead ,分别完成在队列尾部插入整数和在队列头部删除整数的功能。(若队列中没有元素,deleteHead 操作返回 -1 )示例 1:输入:["CQueue","appendTail","deleteHead","deleteHead"][[],[3],[],[]]输出:[null,null,3,-1]示例 2:输入:["CQueue","delet

2021-11-09 09:44:56 97

redis-6.2.5 配置文件redis.conf

redis官方docker镜像时没有redis.conf文件的,如果想设置redis以daemon方式启动,需要将这个配置文件挂载进容器中,以这个配置文件启动。

2021-09-20

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除