- 博客(76)
- 资源 (9)
- 收藏
- 关注
原创 完美解决 在将最终稿件上传到 IEEE PDF eXpress进行格式检查是出现“font not embedded“的问题 (不会出现自动压缩图像的现象)
经过我地不懈努力,终于让我找到在不压缩原始pdf文件的情况下,完美嵌入字体的方法,首先你得安装一个Adobe Acrobat (我装的是Adobe Acrobat Pro DC版),然后在Adobe Acrobat的“印前检查”功能进行PDF修正,该功能可以在 工具->印刷制作 或者 优化PDF 中找到(详细步骤如下)。外文会议、期刊投稿一般要求pdf中的字体应当是嵌入状态,避免其他电脑缺失字体导致pdf文字无法正常显示。
2023-10-19 20:53:47
4786
4
原创 统一visio中具有透视效果块的颜色(即去除块中阴影)-----绘制神经网络模块的必备技能
统一visio中具有透视效果块的颜色(即去除块中阴影)-----绘制神经网络模块的必备技能
2023-01-12 21:04:29
2336
原创 成功解决NotImplementedError: cannot instantiate ‘WindowsPath‘ on your system
成功解决NotImplementedError: cannot instantiate ‘WindowsPath’ on your system和NotImplementedError: cannot instantiate ‘PosixPath‘ on your system
2022-12-01 20:23:00
8726
8
原创 成功解决envs\pytorch-gpu\lib\site-packages\torchvision\io\image.py:13: UserWarning: Failed to load image
成功解决pycharm中出现envs\pytorch-gpu\lib\site-packages\torchvision\io\image.py:13: UserWarning: Failed to load image报错问题
2022-11-23 16:48:32
6077
1
原创 windows 下git bash 中添加dcm2niix、wget等命令的方法
windows 下git bash 中添加dcm2niix、wget等命令的方法
2022-07-25 10:21:53
1220
2
原创 使用kaggle命令下载数据集出现 403 - Forbidden错误
解决使用kaggle命令下载数据集出现的403 - Forbidden错误
2022-07-06 18:41:14
971
原创 使用pafy包出现KeyError: ‘dislike_count‘报错的解决办法
在使用pafy包是时出现以下错误backend_youtube_dl.py", line 54, in _fetch_basic self._dislikes = self._ydl_info['dislike_count'] KeyError: 'dislike_count'问题就在于pafy这个包的54行应该被注释掉,因为自2021年11月以后,youtube废除了dislike counts的信息。 # As of November 2021, YT did away with dislike
2022-05-12 21:13:22
808
原创 endnote出现库已损坏的解决办法
出现上述情况,一般是你的数据库的.data文件夹的权限不够,你check一下,这个文件夹的是不是read only的?去掉这个“只读”就可以了。
2021-04-13 11:25:17
17830
11
原创 “EOFError: Ran out of input“ pytorch bug
将dataloader参数num_workers改成0即可,这是当enumerate和dataloader连用时产生的bug
2020-07-29 19:50:52
2146
2
原创 BN层的作用
BN层位于激活函数之前,它先对数据进行标准化,在进行缩放和平移。标准化是防止数据达到饱和(即激活值分布在大部分都接近0或1),这样会使数据对激活函数不敏感。而缩放平移是为神经网络学会,在标准化效果好时,尽量不抵消标准化的作用,而在标准化效果不好时,尽量去抵消一部分标准化的效果,相当于让神经网络学会要不要标准化,如何折中选择。...
2020-06-26 16:00:22
3323
原创 python问题:only integers, slices (`:`), ellipsis (`...`), numpy.newaxis (`None`) and integer or boolea
就是说索引不是整数类型,可以这样转换array.astype(“int32”),array是你要作为索引的数组。例如import numpy as npdate = np.linspace(0,14,15).astype('int32')#这里用date数组作为索引 y = np.zeros([15])for i in date: print(y[i]) # i作为索引必须是...
2020-04-12 17:51:46
9165
1
原创 使用numpy对多维数组沿着行或列进行标准化的方法
我们在此用到了python的广播机制(Broadcasting):下面展示一些 内联代码片。第一种实现代码如下import numpymatrix = numpy.arange(0,27,3).reshape(3,3).astype(numpy.float64)row_sums = ormed_matrix.sum(axis=1) #axis=1代表对每一行进行标准化,为0则是对列...
2020-04-07 22:28:44
10816
原创 如何使用numpy.random.shuffle同时打乱数据和标签
numpy.random.shuffle():是在在原来数据上进行打乱,所以并且每使用一次,打乱的方式都不同,所以说要让训练数据和标签在打乱之后仍然对应,那么就要设置相同随机数种子,例如:下面展示一些 未设置相同随机数种子时。// A code blocktrain = np.arange(9).reshape(3,3)label = np.arange(9).reshape(3,3)p...
2020-03-30 16:33:02
4929
4
原创 二分类交叉熵损失函数推导及其求导过程
假设函数更为一般的表达式:似然函数:对数似然函数:如果以上式作为目标函数,就需要最大化对数似然函数,我们这里选择最小化负的对数似然函数:对J(w)求极小值,对求导上述求导要用到 π(z)’ = π(z)(1-π(z)),其中π(z)为sigmoid函数(也叫logistic函数),z=w^Tx+b,我们将这些带入求导公式中运算即可得到结果。上述中 xi,j表示第i个样本的第...
2020-03-29 15:15:17
2948
原创 简单理解L2正则化的作用
正则化其实是一种策略,以增大训练误差为代价来减少测试误差的所有策略我们都可以称作为正则化。从数学角度可以这样理解:正则化就是是使容易让模型过拟合的那部分参数接近了0,从而凸显出真正能代表数据的那部分参数。(过拟合就是说,模型对训练数据过于敏感,这样反而削弱了对测试数据敏感程度,导致测试误差较大)比如L2正则化也叫权重衰减,通过对原模型加入L2正则化项,就能让更能代表数据分布的那部分参数的作用...
2020-03-23 14:04:29
2518
原创 深入理解卷积神经网络是如何学习到不同特征
首先,卷积神经网络从低层到高层过程中,先是通过卷积层的卷积核提取低级特征(如垂直边缘特征,水平边缘特征,颜色等局部特征),随着层数加深,慢慢实现层边缘特征到局部特征的转换(在中间主要靠池化层扩大感受野),到了全连接层,就逐渐实现将多个部分特征(即每个特征图代表一种特征)组合为整体的转变。重点是,最初卷积层是如何提取多个特征?因为随机初始化权重导致不同的卷积核有不同的参数,而后更新的过程中导致它...
2020-03-22 22:34:37
3286
原创 在keras搭建的网络中,获取中间层输出结果以及可视化的方法
下面是在代码中具体实现获取中间层输出以及可视化的方法%matplotlib inlineimport numpy as npnp.random.seed(1337)from keras.models import Modelfrom keras.layers import Dense,Inputfrom keras.datasets import mnistimport matplo...
2020-03-20 12:38:04
1317
原创 深度学习中使用X_train.astype('float32')的原因分析
再深度学习中,数据量往往很大,所以在保障数据精度的同时还要考虑计算效率,虽然float64比float32有更高的精度,但一个在内存中占分别64和32个bits,也就是4bytes或8bytes.具体来讲,float64占用的内存是float32的两倍,是float16的4倍;比如对于CIFAR10数据集,如果采用float64来表示,需要60000323238/1024**3=1.4G,光把数...
2020-03-09 17:33:51
13297
原创 one-hot编码解析
常用来转化成one-hot格式的函数to_categorical()导入方式:from keras.utils.np_utils import to_categorical该函数实现的是将一个类别向量(即存放标签的向量)转化成由二进制组成的类别矩阵,专门用于选择categorical_crossentropy’作为损失函数时使用。函数内部结构:// A code blockvar fo...
2020-02-22 18:02:52
662
原创 卷积神经网络的权重参数详解
卷积层和全连接层具有权重系数,因此也被称为权重层;池化层不涉及权重,因此不属于权重层,在计算参数量时,不被计数。其中,卷积层权重的大小为卷积核的size X 卷积核的number(如:size为3x3x3,number 128,则权重为3x3x3x128);全连接层的权重为:前一层节点数×本层的节点数。以上都是不考虑偏置的前提下。...
2020-02-12 16:00:05
10879
2
原创 学习曲线(评价学习算法)
学习曲线用于检验你的学习算法是否运行正常(即是否处于高偏差或高方差,或二者均有),或者你想改进你的学习算法。在这里插入图片描述从图像分析::交叉验证集误差曲线和训练集误差曲线很快就接近平稳,且稳定在一个较高的水平。这里出现高偏差,是由于参数过少(项数太少),而训练数据量又太大了。当出现高偏差时,即使增加训练数据也不会有太大作用。从图像分析:交叉验证集误差曲线比训练集误差曲线高很多,...
2020-02-10 17:13:01
1590
原创 卷积神经网络的优点
优点:1.在卷积层所用的权重和偏置的参数较少,两个原因:(1)参数共享; ( 2)稀疏连接。2. 具有平移不变性,即使图片中的目标位置平移到图片另一个地方,卷积神经网络仍然能很好地识别出这个目标,输出的结果也和原来未平移之前是一致的。...
2020-02-01 19:10:38
18972
原创 卷积神经网络常见三层的介绍
卷积层:输入与滤波器做元素积,再求和,即得到输出中对应的一个元素(滤波器可以不翻转)。池化层:每个通道单独池化,其中,一个通道就代表所提取到的一种特征在图片中的分布,值越大,代表这种特征在该区域就越明显,值越小,代表这种特征在该区域几乎没有,池化后的输出也是保持这样。最常用的是 最大池化,其次是平均池化。注意:池化层没有参数要进行学习(更新),它只有超参数(人为设置),无权重矩阵和...
2020-02-01 17:24:16
4717
1
原创 卷积神经网络之多个过滤器
每个过滤器都可以检测一个特征,所当我们要检测多个过滤器时,就需要多个过滤器,最后得到的图像的第三个维度等于顾虑器的个数,即为多个过滤器与原图像的卷积,再堆叠在一起。...
2020-02-01 14:48:24
2308
原创 卷积神经网络之Padding
填充能解决图像边缘的像素点(如左上角的)只被卷积一次的情况,相当于被忽略了,而中间像素点却可以被多次卷积的情况。两种Padding方式,1)Valid:代表不填充,即P=0;2)Same:代表填充后输出矩阵的大小与原矩阵保持一致,即P = (f-1)/2 ,其中过滤器的大小为 f X f。...
2020-01-31 16:45:31
760
原创 卷积神经网络之边缘检测
在卷积神经网络中,星号*代表卷积运算,其中3X3的矩阵代表滤波器(也叫核),有很多种,例如用于垂直边缘检测,还有水平边缘检测等等。上面用水平边缘检测得到的4X4的矩阵中,正数代表边缘上下的颜色分布和滤波器是一致的,例如30代表原始矩阵中所用到的3X3的部分是与滤波器的颜色分布一致。...
2020-01-31 16:04:35
1777
原创 怎么理解np.random.seed()?
问题: 利用随机数种子,每次生成的随机数相同。这是什么意思?指的是设置相同的随机数种子时,产生随机数的方式就会相同,例如:np.random.seed(1)print(np.random.randn(10))np.random.seed(1)print(np.random.randn(10))[ 1.62434536 -0.61175641 -0.52817175 -1.0729686...
2020-01-26 15:38:52
471
原创 参数与超参数
蓝色字体写的都是超参数,包括mini batch,正则化之类的参数,正是这些超参数控制着参数w,b的值,所以才叫它们超参数。超参数的选择是一个不断实践的过程,特别是在深度学习中,实践多了,才会产生直觉,这是一个循序渐进的过程。...
2020-01-22 14:30:52
347
原创 深度神经网络中参数及输入数据的维度一致性
权重矩阵w的维度为 第l层的神经元个数 X 第l-1层的神经元个数,即是n(l),n(l-1)的矩阵。
2020-01-21 17:36:20
1514
原创 使用python初始化神经网络
往往将权重w初始化很小,是为了z= w^T x +b过大,sigmoid(z)的值过大,导致使用梯度下降算法求解最优参数时,收敛太慢
2020-01-21 15:34:55
591
原创 神经网络常用的几种激活函数
常用的几种激活函数(第一种一般用在输出层)一般在神经网络中很少使用线性激活函数(回归除外),因为它会使得隐藏神经元有和没有都没什么关系,最后得到的是还是一个恒等的线性激活函数...
2020-01-21 11:20:12
1011
GeForce_Experience_v3.20.2.34.zip
2020-03-27
cudnn-9.0-windows7-x64-v7.6.4.38.zip
2020-03-27
tensorflow-1.14.0-cp37-cp37m-win_amd64.zip
2019-08-17
Microsoft Visual C++ 14.0(压缩包).7z
2019-08-03
三天打鱼两天晒网C语言详细代码
2019-04-16
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人