- 博客(14)
- 收藏
- 关注
原创 论文笔记: Deep quantization Network for Efficienct Image Retrieval
论文笔记: Deep Quantization Network for Efficient Image Retrieval这篇文章多处与另一篇相似: [Deep Hashing Network for efficient Similarity Retrieval][1].文章做的事情(1)构建了一个深度神经网络表达(2)使用瓶颈网络构建了一个维度降低的哈希码。(3)用配对损失来构建相似度学习(4)量化损失用来控制哈希质量。深度哈希网络网络模型可以参见[另一篇文章的笔记][1]这篇文章的网络
2020-08-26 16:47:34
939
1
原创 论文笔记:Deep Hashing Network for Efficient Similarity Retrieval
论文笔记: Deep Quantization Network for Efficient Image Retrieval灵魂三问论文提出的问题由于quantization error, 哈希编码将不能准确地表达特征论文做了什么?用多池化层卷积神经网络,来表达图片用全连接的哈希层来生成二进制哈希编码用相应的交叉熵层来学习相似性用配对的量化损失来控制哈希质量论文达到了什么效果?通过在标准的哈希检索数据集上的实验,文中的方法超过了最新的哈希方法。深度哈希网络 Deep Ha
2020-08-22 17:44:41
1167
原创 【花书阅读笔记】第七章正则化 第二部分
【花书阅读笔记】第七章:深度学习中的正则化 Part II提前终止在训练过程中训练集误差逐渐降低,但是测试集误差逐渐升高我们只要返回验证集误差最低的参数设置,可以获得验证集误差更低的模型。提前终止(early stopping):当算法停止时,我们返回的这些参数不是最新的参数。当验证集上的误差在指定的循环次数内没有进一步改善时, 算法就会终止。令 n 为评估间隔的步数。 令 p 为“耐心 (patience)",即观察到较坏的验证集表现 ppp 次后终止。 令 θo\theta_{o}θo 为
2020-08-07 19:54:05
271
原创 Vim 配置以及插件管理
Vim 配置以及插件管理基本vim配置在用户目录下新建.vimrc文件cd ~gedit .vimrc我的基本配置如下:部分来源于sources以及关于光标配置这里 let mapleader = "," nnoremap <silent> <leader>n :NERDTreeToggle<CR>"sources: http://www.ruanyifeng.com/blog/2018/09/vimrc.html:set number
2020-08-05 19:34:42
376
原创 论文笔记:Non-Local Neural Network
论文笔记:Non-Local Neural NetworkAbstract卷积和循环操作都一次只在一个局部neighborhood上操作。受到传统计算机视觉中非局部中值计算的启发,作者决定使用此方法在深度学习上。公式通用公式:yi=1C(x)∑∀jf(xi,xj)g(xj)\mathbf{y}_{i}=\frac{1}{\mathcal{C}(\mathbf{x})} \sum_{\forall j} f\left(\mathbf{x}_{i}, \mathbf{x}_{j}\right) g
2020-08-03 17:53:55
234
原创 论文笔记:残差网络 Deep Residual Learning for Image Recognition
论文笔记: Deep Residual Learning for Image Recognition目标:利用残差网络是的训练更加简单面对的问题:degradation Problem: 当添加的网络层次变多,精确度逐渐饱和,网络层次将趋近饱和。Intuition:文中的想法是将堆叠的感知器学习原有输出的残差。具体表示是:假设H(x)\mathcal{H}(\mathbf{x})H(x)为表示某几层感知器的, xxx是输入。那么我们令F(x):=H(x)−x\mathcal{F}(\mathbf
2020-08-02 16:50:46
332
原创 【花书阅读笔记】第七章:深度学习中的正则化 Part I
【花书阅读笔记】第七章:深度学习中的正则化 Part I参数范数惩罚许多正则方法是对目标函数JJJ添加了一个惩罚范数Ω(θ)\Omega(\theta)Ω(θ)J~(θ;X,y)=J(θ;X,y)+αΩ(θ)\tilde{J}(\boldsymbol{\theta} ; \boldsymbol{X}, \boldsymbol{y})=J(\boldsymbol{\theta} ; \boldsymbol{X}, \boldsymbol{y})+\alpha \Omega(\boldsymbol{\t
2020-07-29 17:16:40
281
原创 Linux 中vscode vim模式切换<esc> <caps lock> 后,<caps lock> 不起作用
我在ubuntu中切换了<esc> <caps lock> 两个按键的位置,但是在vscode里面,按下<caps lock> 本应该切换为normal mode,但是没有。这个错误在https://github.com/VSCodeVim/Vim/issues/4350被提到修改:在设置文件中加上:"keyboard.dispatch": "keyCode"...
2020-07-27 12:34:22
1594
1
转载 Vim Instruction Vim 指南
Vim Instructionsource: https://www.cnblogs.com/jiqingwu/archive/2012/06/14/vim_notes.html#id591. 关于Vimvim是我最喜欢的编辑器,也是linux下第二强大的编辑器。 虽然emacs是公认的世界第一,我认为使用emacs并没有使用vi进行编辑来得高效。 如果是初学vi,运行一下vimtutor是个聪明的决定。 (如果你的系统环境不是中文,而你想使用中文的vimtutor,就运行vimtutor zh)1
2020-07-26 21:07:06
269
原创 安装 oh-my-zsh 以及插件(自动补全,高亮)最好的linux shell
安装 oh-my-zsh安装Zshsudo apt-get install -y zsh安装 Oh-my-Zshwget https://github.com/robbyrussell/oh-my-zsh/raw/master/tools/install.sh -O - | sh chsh -s /usr/bin/zsh但我提示如下报错:sh: 0: Can't open chsh--2020-07-26 17:38:32-- https://github.com/robbyrussel
2020-07-26 18:08:11
5745
原创 Ubuntu 配置新手入门
Ubuntu 配置新手入门按住快捷键ctrl+alt+t打开命令行,输入:sudo apt-get updatesudo apt-get upgrade更新下载源,升级所有软件下载google输入法第一步:安装Fcitxsudo apt install fcitx第二步:配置Fcitx终端运行im-config点击确认,选择fictx选项卡,再次确认第三步:注销账户或重启第四步:安装谷歌拼音sudo apt install fcitx-googlepinyin -y
2020-07-26 15:20:07
681
原创 论文笔记:SlowFast Networks for Video Recognition
论文笔记:SlowFast Networks for Video Recognition灵魂三问:作者想干什么?提取视频信息是怎么实现的?通过分别低采样和高采样低采样:提取空间语义(spacial sematics)高采样:提取时域上的运动实现了什么目标?在动作识别以及检测都有很显著提升测试集:Kinetics, Charades, AVA,Intuition在图片中,I(x,y)I(x,y)I(x,y) 有各向同性 (isotropic), 那么视频信号
2020-07-24 16:11:47
264
原创 花书阅读笔记:卷积神经网络
Convolution Notes万能近似定理万能近似定理(universal approximation theorem)(Hornik et al., 1989; Cybenko, 1989) 表明,一个前馈神经网络如果具有线性输出层和至少一层具有任何一种 ‘‘挤压’’ 性质的激活函数(例如logistic sigmoid激活函数)的隐藏层,只要给予网络足够数量的隐藏单元,它可以以任意的精度来近似任何从一个有限维空间到另一个有限维空间的 Borel 可测函数动机卷积运算通过三个重要的思想来帮助改
2020-07-22 14:32:32
322
原创 论文笔记:Evolving Losses for Unsupervised Video Representation Learning
Evolving Losses for Unsupervised Video Representation Learning 论文笔记DistillationKnowledge Distillation from: zhihuDistillate Knowledge from Teacher model Net-T to Student model Net-S.目的:为了精简模型方便部署。L=αLsoft+βLhardL=\alpha L_{s o f t}+\beta L_{h a r d}
2020-07-20 20:35:46
960
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人