- 博客(17)
- 资源 (9)
- 收藏
- 关注
原创 python教程 ---- 如何遍历文件夹
一、问题来源遍历文件夹是python最常用的操作,比如训练神经网络需要的图片输入、对文件的处理等。近期想编写一个对图像加密所用的exe程序,需要用到加密选中的文件夹中所有的图片,这时我就开始思考:怎么可以使得遍历的速度较快?怎么使得占用的资源较少?二、遍历方法1. 递归递归是我想到的最直接的遍历方法,类似深度搜索。使用python来写函数的递归肯定是比较慢的(当遍历的文件夹深度较深、数量较大时),如果是文件夹较少时可以使用该方法,因为确实很直接。缺点也很明显,就是需要专门去区分文件.
2021-10-25 11:38:18
1937
原创 智能驾驶----什么是智能驾驶?
前言:一直对智能驾驶感兴趣,所以想借助平时的空闲来对智能驾驶由浅入深的进行了解。一. 智能驾驶简介智能驾驶是在驾驶的基础上添加了人工智能算法,该智能算法需要包括感知-规划-控制的能力。1. 感知算法1. 1 SLAM算法该算法主要分为两种:视觉SLAM和激光SLAM。顾名思义,主要的区别在于感知世界的介质不同,一种是带有测距功能的摄像头,另一种是激光,其目的就是通过感知对外界进行建模。主要的语言为:C++/C(速度优势)需要了解的知识为:滤波算法等1.2 机器学习算...
2021-10-12 19:28:22
2128
原创 spyder如何快速查看tensor
问题:用过spyder的都知道,spyder可以在训练的过程中查看变量的值,但如果该变量是tensor的话,就看不到具体的值。举例,查看train_accuracy_list, 可以看出是一个列表,列表中的值为tensor点击train_accuracy_list:点击任意一个tensor:发现找不到任何和tensor值相关的。教你一个方法:选中train_accuracy_list,右键复制,然后重新开一个console,右键粘贴,然后就能看到值了。...
2021-09-27 10:25:06
1095
原创 神经网络量化----NeuroSim量化
1. 对于输入:对于第一层的输入,将图片归一化到(-1,1),将weight归一化到(-1,1),然后将weight乘以缩放因子128,变成整形。输出再除以128
2021-08-26 18:24:31
1452
5
原创 python小技巧
1. 画图 import matplotlib.pyplot as plt plt.plot(self.activate_distubution_edges.cpu().numpy()[:-1], self.activate_distubution.cpu().numpy()) if optimal_th is not None: plt.plot(optimal_th, 0, 'om') plt.annota...
2021-04-13 14:04:02
289
原创 神经网络量化----TensorRT深刻解读
神经网络量化----TensorRT深刻解读文章目录系列文章目录 前言 一、pandas是什么? 二、使用步骤 1.引入库 2.读入数据 总结前言本文将聚焦于英伟达TensorRT训练后量化的算法。论文地址为:https://on-demand.gputechconf.com/gtc/2017/presentation/s7310-8-bit-inference-with-tensorrt.pdf代码地址为:官方好像没有公布代码,可以参考的有https://g.
2021-03-30 19:56:30
1947
原创 CentOS+MKL+Mxnet+opencv编译成C++库
CentOS+MKL+Mxnet+opencv编译成C++库目录CentOS+MKL+Mxnet+opencv编译成C++库前言一、下载1. mxnet1.3.0,在github下下载即可,注意查看3rdparty中的第三方库是否下载完全2. opencv3.4.1,这个也直接在github上下载即可3. MKL:由于intel官网更新成onednn,所以之前版本的MKL不太好找,这里附上链接,需要注册登录下载:MKL下载地址4. MKLML:由于在mxnet1..
2021-03-05 15:21:20
570
原创 Mxnet + MKL + GPU 编译为C++可调用的库
Mxnet + MKL + GPU编译为C++可调用的库主要参考:https://zhuanlan.zhihu.com/p/58918998vs:2019,cuda:11.0,mxnet:1.3.1,opencv:3.4.11. 下载mxnet源代码后,将第三方库也一并下载,这里有个大坑,如果使用源代码中网址去下载的话,很难出结果。2. 安装cuda,https://www.jianshu.com/p/816caa5010c6,里面提供了cuda和cudnn,如果使用官网下载cudnn的话,
2021-02-26 13:19:17
811
原创 神经网络量化------深刻解读Google 8bits量化
神经网络量化------深刻解读Google 8bits量本文参考论文为:Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference 有助于理解的代码可参考:google_quantization (代码中包含conv,relu、BN的量化,但可能缺少对全连接的量化)1. 量化框架2. 训练后量化3. 伪训练量化...
2021-02-01 11:02:42
577
原创 VS生成exe遇到的一些问题
1. 在我自己的笔记本上运行完全没有问题,可是放到别人的电脑上会提示缺少某dll。原因:我自己电脑上装了python,在环境变量中有相关的库,所以在编译时没有注意。后来按照提示都加上之后发现不能加载dll,这时候意识到可能有别的依赖,就把名字类似的dll全都加载进去,发现可以了。...
2020-12-04 16:42:51
728
原创 keras学习记录——pooling层解析
keras学习记录——pooling层解析一. pooling的总类二. keras中的API(函数调用接口)三. 分析其输入输出1. 1D2. Global1D3. 2D4. Global2D5. 3D4. Global3D一. pooling的总类根据维度可将其分为:1D,2D,3D根据取值运算可将其分为:max,average根据步长可将其分为:正常,global二. keras中的API(函数调用接口)from .pooling i.
2020-10-26 16:19:37
2011
2
原创 keras学习记录——神经网络训练踩坑记
1. 在训练神经网络时后期出现震荡,不能收敛到一个较好的值,查找原因发现学习率中的步长一直为0.001,可是设置了自动调节学习率的函数呀,具体见下述代码:model.compile(loss='sparse_categorical_crossentropy',optimizer=Adam(),metrics=['accuracy'])lr_reducer = ReduceLROnPlateau(monitor='val_accuracy', factor=0.2, patience=2,
2020-10-23 11:38:52
436
原创 keras学习记录——resnet为什么用averagepooling?
keras学习记录——resnet为什么用averagepooling?目录keras学习记录——resnet为什么用averagepooling?前言一、池化层二、为什么在resnet后加均值池化而不是最大池化?三、实际测试总结前言本篇主要讨论resnet最后的pooling层为什么用averagepooling,而不是maxpooling?主要用实验来回答这个问题,另外讲解了averagepooling和maxpooling的优缺点,并做了一些猜测(科研需要猜测,
2020-10-22 14:29:39
2150
3
原创 keras学习记录——训练resnet模型对cifar10分类
keras学习记录——训练resnet模型对cifer10分类目录keras学习记录——训练resnet模型对cifer10分类前言一、数据准备二、构建网络三、网络训练四、训练结果总结前言最近在对resnet中的add操作做量化处理,所以先将resnet对cifer10分类训练记录下来。提示:以下是本篇文章正文内容,下面案例可供参考一、数据准备直接调用keras中的数据库: from keras.datasets import cifar1..
2020-10-21 17:26:50
1302
8
windows平台socket多客户端通信c++编程
2019-03-19
输出两个文本中的不同行
2018-12-22
基于matlab的八个方向sobel图像边缘检测算法
2018-05-17
基于分数阶傅里叶变换的双随机图像加密
2018-04-19
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人