
AI
**:天下第一
这个作者很懒,什么都没留下…
展开
-
【c++】 基础
1. 类转为其他类型operator float() const { return xxx;}2. 其他类型转为这个类原创 2019-07-13 23:53:20 · 173 阅读 · 0 评论 -
uncertainty
一共有两种uncertainty, 一种是axx, 另外一种是exx.axx是数据相关的,exx是数据无关的。计算数据相关的直接 predicted, 数据无关的直接多次求方差原创 2019-04-25 17:49:06 · 1022 阅读 · 0 评论 -
贝叶斯推断和神经网络
一开始一直没明白为什么这个用神经网络X,Y怎么操作,后来明白P(y1: N| theta) 可以用网络预测的值和真实值弄个高斯分布来衡量概率。 如果是分类问题就用softmax...原创 2019-04-25 16:39:17 · 604 阅读 · 0 评论 -
最大似然和概率区别
似然是 给定数据 针对参数说的概率是 给定参数 针对数据说的原创 2019-04-25 15:54:43 · 429 阅读 · 0 评论 -
网络不确定性
原创 2019-04-25 14:45:50 · 676 阅读 · 0 评论 -
可导的变分操作
高斯分布的均值和方差只在KL项里面,我之前以为在loss也会有…原创 2019-04-28 19:20:20 · 188 阅读 · 0 评论 -
贝叶斯和KL散度
原创 2019-04-22 19:07:31 · 755 阅读 · 0 评论 -
Frank-Wolfe方法
就是认为 优化是 线性的。然后找到点后就知道了方向。原创 2019-02-11 23:23:55 · 4578 阅读 · 0 评论 -
金字塔光流算法
https://blog.youkuaiyun.com/sgfmby1994/article/details/68489944https://blog.youkuaiyun.com/u012554092/article/details/78128795原创 2019-01-15 22:40:47 · 1477 阅读 · 0 评论 -
多类多目标的loss函数
https://stats.stackexchange.com/questions/207794/what-loss-function-for-multi-class-multi-label-classification-tasks-in-neural-n/317971#317971原创 2019-01-25 16:35:58 · 1404 阅读 · 0 评论 -
提取motion vector
#include <libavutil/motion_vector.h>#include <libavformat/avformat.h>static AVFormatContext *fmt_ctx = NULL;static AVCodecContext *video_dec_ctx = NULL;static AVStream *video_stream =...原创 2019-01-09 19:01:17 · 2666 阅读 · 0 评论 -
ffmpeg 帧类型enum
AV_PICTURE_TYPE_NONE Undefined.AV_PICTURE_TYPE_I Intra.AV_PICTURE_TYPE_P Predicted.AV_PICTURE_TYPE_B Bi-dir predicted.AV_PICTURE_TYPE_S S(GMC)-VOP MPEG4.AV_PICTURE_TYPE_SI Switching I...原创 2019-01-09 15:57:18 · 584 阅读 · 0 评论 -
Pay Less Attention with Lightweight and Dynamic Convolutions
总结一句话,在分组卷积里面,每次只考虑了纵向的数据,现在学习一个weight,同时考虑 横向的数据https://qiita.com/koreyou/items/328fa92a1d3a7e680376转载 2019-01-24 22:58:04 · 3166 阅读 · 0 评论 -
FFT理解
https://www.zhihu.com/question/22611929原创 2019-05-30 22:15:42 · 226 阅读 · 0 评论 -
CNN的等变性和不变性
不变性: invariant f(F(x)) = f(x)等变性: eq f(g(x)) = g’f(x)pooling是具有不变性cnn 是具有等变性https://zhangting2020.github.io/2018/05/30/Transform-Invariance/原创 2019-06-05 23:43:03 · 2453 阅读 · 0 评论 -
图片像素格式
1:1位像素,表示黑和白,但是存储的时候每个像素存储为8bit。L:8位像素,表示黑和白。P:8位像素,使用调色板映射到其他模式。RGB:3x8位像素,为真彩色。RGBA:4x8位像素,有透明通道的真彩色。CMYK:4x8位像素,颜色分离。YCbCr:3x8位像素,彩色视频格式。I:32位整型像素。F:32位浮点型像素。作者:icamera0来源:优快云原文:https:/...原创 2019-06-27 23:18:56 · 1548 阅读 · 0 评论 -
【深度学习】 激活函数
sigmoid初始化转载 2019-06-24 21:41:51 · 146 阅读 · 0 评论 -
BatchNorm层的作用
而第一步的规范化会将几乎所有数据映射到激活函数的非饱和区(线性区),仅利用到了线性变化能力,从而降低了神经网络的表达能力。而进行再变换,则可以将数据从线性区变换到非线性区,恢复模型的表达能力。Batchnorm不适用的情况:韩国团队在2017NTIRE图像超分辨率中取得了top1的成绩,主要原因竟是去掉了网络中的batchnorm层,由此可见,BN并不是适用于所有任务的,在image-to...原创 2019-06-18 14:49:04 · 5636 阅读 · 0 评论 -
[总结] Alexnet
AlextNet首次使用relu,dropout的好处: 多个子网络组合, hard记忆没了, 增加数据sgdVGGNetpooling 之后通道数增加Resnet没有全联接层转载 2019-06-18 14:27:23 · 185 阅读 · 0 评论 -
图像处理中锐化和平滑的操作
锐化: 增强高频分量,提高了噪声平滑: 降低高频分量原创 2019-06-17 01:17:03 · 2935 阅读 · 0 评论 -
图像-warp
warp 其实就是通过光溜和当前图片信息,推断下一时刻图片的信息原创 2019-06-20 22:59:31 · 3194 阅读 · 1 评论 -
docker 无法更新源
wget http://archive.ubuntu.com/ubuntu/pool/main/a/apt/apt-transport-https_1.2.32_amd64.debdpkg -i apt-transport-https_1.2.32_amd64.deb原创 2019-06-04 12:14:34 · 1071 阅读 · 0 评论 -
拉格朗日乘子法理解
原创 2019-06-03 23:22:18 · 709 阅读 · 0 评论 -
Stochastic Gradient Descend和mini batch SGD区别
SGD 是只对一个数进行更新mini batch SGD 是对一堆数进行更新原创 2019-06-15 00:20:30 · 516 阅读 · 0 评论 -
CNN work的个人理解II
卷积操作和相关性操作很相似,而且点积操作也是一类相似性函数。所以卷积核是某种feature, 卷积后的结果在某种程度上反应了相似性原创 2019-06-03 14:23:27 · 201 阅读 · 0 评论 -
torch 高斯默认参数
原创 2019-01-08 21:38:23 · 835 阅读 · 0 评论 -
神经网络中add的理解
https://www.zhihu.com/question/306213462原创 2018-12-31 20:34:39 · 1350 阅读 · 0 评论 -
Batch Norm理解
1. batch norm理解即便噪声的引入使得分布不稳定,但在训练性能仍比标准网络好。所以,BatchNorm的有效性与Internal Covariate Shift并没有什么联系。原创 2018-12-05 18:56:12 · 434 阅读 · 0 评论 -
I3D是暴力
I3D 用2个3D Net然后 直接把2D 的weight复制到第三维度原创 2018-11-26 21:34:25 · 1458 阅读 · 0 评论 -
3D卷积
原来3D卷积 只是稍微少点。。。它和2D卷积的区别是 它的输出是一个立方体。原创 2018-11-26 20:38:44 · 3013 阅读 · 0 评论 -
fusion的理解
fusion 有很多种模式,开始没明白。现在知道fusion 后然后采样 取平均,然后恍然大悟。原创 2018-11-26 19:56:58 · 1903 阅读 · 0 评论 -
CGAN的两种形式
by hongyi zhang转载 2018-11-29 21:47:58 · 1214 阅读 · 0 评论 -
神经网络归一化的作用
1. 能使用大的lr2. 能够抵消初始化不好带来的影响原创 2018-11-29 20:51:33 · 1925 阅读 · 0 评论 -
Siamese Network
Siamese Network 可以看成是对输入图片的一个 哈夫曼编码原创 2018-11-29 20:39:58 · 449 阅读 · 0 评论 -
padding方式 valid same
原创 2018-11-29 20:09:27 · 364 阅读 · 0 评论 -
global accuracy 和 mean accuracy的区别
global 全部一起算mean 每个类单独算原创 2018-12-02 14:11:26 · 2819 阅读 · 4 评论 -
空格卷积的效果
原创 2018-12-02 13:55:32 · 190 阅读 · 0 评论 -
Attention is All You Need 理解
原创 2018-12-26 14:43:58 · 356 阅读 · 0 评论 -
动力学理解rmsprop
其实说白了就一句话,梯度大的时候容易错,step就稍微小一点;梯度小的时候不容易错,step可以稍微大一点https://spaces.ac.cn/archives/6234原创 2018-12-31 11:42:41 · 1076 阅读 · 0 评论 -
adam 偏差修正理解
https://stats.stackexchange.com/questions/232741/why-is-it-important-to-include-a-bias-correction-term-for-the-adam-optimizer-for转载 2018-12-31 11:11:30 · 4337 阅读 · 0 评论