
深度学习
真的只是略懂而已
随便写写,写得不好请多多指教
展开
-
GitHub 上的预训练模型
https://github.com/tensorflow/models:提供基于 TensorfFlow 训练好的模型,文件格式为 *.pb,即冻结图模型。https://github.com/opencv/open_model_zoo:提供基于 OpenVINO 优化的模型,文件格式 *.bin。原创 2020-07-11 16:57:07 · 1866 阅读 · 0 评论 -
TensorFlow *.pb 文件
pb 是 protobuf 的缩写。在 TensorFlow 中,protbuf 文件包含计算图定义以及模型的权重。原创 2020-07-03 09:28:55 · 291 阅读 · 0 评论 -
tensorbard 无法访问?
解决:指定 host 为 127.0.0.1tensorboard --logdir ./ --host=127.0.0.1原创 2020-07-02 23:15:37 · 176 阅读 · 0 评论 -
batch、batch_size、iteration / step、epoch 含义
epoch:表示把所有的训练集输入到模型完整地训练一遍batch:模型训练时,往往不是一次性把所有的训练集输入到模型中,而是把训练集分成较小的批,即分成一个个的 batchbatch_size:batch 的大小iteration / step:一个 iteration / step,更新一次参数权重,即进行一次学习,每一次更新参数需要 batch_size 个样本进行运算学习,根据运算结果调整更新一次参数例如:假设训练集中有 2000 个样本,把训练集的 2000 个样本一个不漏地输入到模型.转载 2020-07-02 09:18:46 · 1223 阅读 · 0 评论 -
Python 安装第三方库出现 unable to find vcvarsall.bat 错误
错误截图:原因:这是因为电脑缺少 Visual C++ Build Tools 2015,下载安装一个就好了下载地址:http://go.microsoft.com/fwlink/?LinkId=691126原创 2020-06-21 13:53:11 · 575 阅读 · 0 评论 -
Failed to get convolution algorithm. This is probably because cuDNN failed to initialize
出现 Failed to get convolution algorithm. This is probably because cuDNN failed to initialize 的原因想明白,先留在这。虽然问题还不清楚,但是找到了解决办法:设置 Tensorflow 按需分配 GPU 显存。把下面这段代码复制到你的代码最前面即可。# GPU 按需分配config = tf.compat.v1.ConfigProto(allow_soft_placement=True)config.gpu_op原创 2020-06-21 13:37:02 · 449 阅读 · 0 评论 -
机器学习里面的归一化、标准化、中心化、正则化
归一化,把min-max normalization 叫做归一化,也就是x=x - min(x) / max(x) - min(x)标准化,把z-score normalization 叫做标准化,也就是x=x - mean(x) / 标准差原创 2020-01-29 20:41:59 · 741 阅读 · 0 评论 -
自编码器
潜在空间:就是瓶颈层,该空间包含了所有隐变量。潜在空间就是得到的最小特征存在的空间。潜在值就是得到的最小特征,为了可视化,会将潜在向量(隐变量)减小到二维特点无监督的神经网络学会如何用特征还原数据通过学习,忽略数据中的噪声,来减小数据尺寸我感觉就是:输入一张图片->先提取特别多的特征->从特征中继续提取,但是比之前的少->重复个多次->得到最小能表示特征的矩阵-...原创 2020-01-08 17:10:09 · 694 阅读 · 0 评论 -
深度学习中的UnSampling、DownSampling
缩小中间数据=DownSampling(下采样)=SubSampling(子采样),方法有:Max Pooling、Average Pooling、Sum Pooling等。增大中间数据=UpSampling(上采样)=SuperSampling(超采样),方法有:UnPooling、Deconvolution、Bilinear等。...原创 2019-10-07 10:19:15 · 3723 阅读 · 0 评论 -
随机梯度下降,随机的含义
梯度下降法中,有3中不同的策略。分别是:(full) batch gradient descent = 批梯度下降,是指所有数据一次性全部喂给模型,然后用梯度下降法更新参数。这种策略的问题就是一次迭代的时间太长了,难得等。(是否存在随机的问题,也就是数据是否会打乱喂给模型,我还不清楚)mini-batch gradient descent = 小批梯度下降,是指把训练数据分成很多了mini-...原创 2019-10-05 17:05:27 · 2439 阅读 · 2 评论