- 博客(43)
- 收藏
- 关注
原创 记录 | ERROR: Could not install packages due to an OSError: Missing dependencies for SOCKS support.
【代码】记录 | ERROR: Could not install packages due to an OSError: Missing dependencies for SOCKS support.
2023-11-28 10:19:20
691
原创 ImportError: Using SOCKS proxy, but the ‘socksio‘ package is not installed. | 问题踩坑
问题:ImportError: Using SOCKS proxy, but the ‘socksio’ package is not installed. Make sure to install httpx using。最近用stable diffusion web ui的时候总是遇到这个问题,记录一下。,而是一行bash命令就够了(在ubuntu系统下的)
2023-10-04 15:26:57
4735
原创 torch.autograd.detect_anomaly() 工具的使用(记录)
正向传播以及反向传播时添加异常侦测,减少找代码bug的时间。
2023-07-04 10:14:02
10381
原创 编写python代码从environment.yaml中找到未安装的pip依赖包,并进行安装
虽然最好的复现方式是再新创建一个虚拟环境然后完全安装对应版本,但是当我要跑好几个类似的代码的时候,就不想每个都创建一个虚拟环境了,直接用原来的,然后添加一些包依赖。所以我们就大概的步骤就是找到对应的包,检查是否安装过,如果没有则进行安装。
2023-03-29 14:59:26
1151
原创 Ubuntu 创建本地 Git 并与 Github(私有库) 交互(上传与下载)| 记录 | 踩坑
首先先附上基础的教程,写的挺靠谱的。有一点值得注意,如果还不想公开自己的代码,记得在github上创建新库的时候点那个私有的选项。https://www.cnblogs.com/sawyer22/p/9265784.html大体分为,在linux上安装git,然后创建ssh将本地仓库与github建立联系,最后在github上创建一个新库,把自己本地的库push上去就好了。(1)由于github现在有点被墙,所以时不时的可能有网络连不上的情况,我是报了以下错误这个时候不要慌,我是按照以下这个回答将 pr
2022-09-14 10:20:51
651
原创 NIPS 2014 | Two-Stream Convolutional Networks for Action Recognition in Videos 阅读笔记
双流网络,来自VGG团队的工作,首篇可以基于深度学习方法在视频理解上做的效果较好的论文。
2022-06-15 17:15:22
291
原创 ICCV 2021 | Swin transformer: Hierarchical vision transformer using shifted windows 阅读笔记
ICCV 2021 best paper,完美将 CNN 与 Transformer 两大系列的工作相结合。
2022-06-11 16:29:46
360
原创 WIN11 | 安装WSL2 | 在WSL2上跑pytorch-gpu | 远程连接WSL2
在 wsl 跑 pytorch,使用 Linux 的环境可以更好的跑深度学习的代码;在 wsl 上开启 ssh 服务后,就可以方便远程连接操作 wsl 上的代码。
2022-03-12 21:21:52
4654
原创 Python 小技巧 | 位数较多数字的清晰编写方式
如果你有一个很长的数字变量 a = 3000000000,怎么样让它在代码里看起来舒适,并且一下子就能知道它有多少位数呢?在 Python 中可以这么写:a = 3_000_000_000这样与直接 a = 3000000000,是等价的,但是代码中看起来就会清晰很多!
2022-02-23 08:29:13
526
1
原创 CVPR 2021 | Few-shot Image Generation via Cross-domain Correspondence 阅读笔记 & 部分翻译
作者使用 cross-domain distance consistency 来维持源域中的多样性(使用相同的 latent code 来做损失);使用 $D_{img}$ 来对目标训练集中采样的图像做完整的 image-level 损失(通过固定 k 个随机点),使用 $D_{patch}$ 来对目标训练集外采样的图像做 patch-level 损失,这样会减少了对应有的多样性的惩罚,还提升了生成图像的真实度。
2021-12-18 20:37:41
1598
原创 Masked Autoencoders Are Scalable Vision Learners | MAE 阅读笔记&部分翻译
该文章就是在 ViT 的基础上做了一些改进 1)mask 了大部分的 patches,以减少图像的冗余信息 2)加入了基于 Transformer 架构的 Decoder 来还原像素 3)加入了 ViT 后续工作的一些训练技巧,来提升模型的鲁棒性。
2021-12-12 15:11:03
3091
原创 CVPR 2020 | MineGAN: Effective Knowledge Transfer From GANs to Target Domains With Few Images 阅读笔记
该论文在生成器的输入前增加了一个 miner 网络,它的作用是将原始分布 transfer 到目标空间分布,并将 transfer 分成了两阶段,第一阶段固定生成器,训练 miner 和判别器;第二阶段将所有的参数(包含生成器)一起进行微调。
2021-12-10 11:35:41
2564
原创 NIPS 2020 | Few-shot Image Generation with Elastic Weight Consolidation 阅读笔记&部分翻译
作者提出当进行 transfer 时不应该将所有的权重参数一视同仁,然后讨论了迁移前后网络中各层的权重变化率,证明有一些重要的参数是不需要大幅度改变的,最后在损失函数中添加了 EWC 损失,做到了不同参数不同对待,而且 EWC 损失不需要学习,效果很好。
2021-12-10 11:21:41
3233
原创 ECCV 2018 | Transferring GANs: generating images from limited data 阅读笔记(部分翻译)
该论文将 fine-tuning 与 GAN 进行了一个结合,是这个方面的开篇之作,然后做了一些关于 transfer 影响因素的实验讨论。
2021-12-07 23:13:20
1354
原创 ICLR 2021 | An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale| ViT 阅读笔记(翻译)
An Image is Worth 16x16 Words: Transformers for Image Recognition at ScaleAuthor Unit: Google Brain, Google ResearchAuthors: Alexey Dosovitskiy∗,†, Lucas Beyer∗, Alexander Kolesnikov∗, Dirk Weissenborn∗, Xiaohua Zhai∗, Thomas Unterthiner, Mostafa Dehghan
2021-12-01 22:41:35
2658
原创 BERT: Pre-training of Deep Bidirectional Transformer for Language Understanding 阅读笔记(部分翻译)
BERT: Pre-training of Deep Bidirectional Transformers for Language UnderstandingAuthor Unit: Google AI LanguageAuthors: Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina ToutanovaCode: https://github.com/ google-research/bertConference: arXiv:1810.048
2021-12-01 22:27:09
936
原创 NIPS 2017 | Attention is all you need | Transformer 阅读笔记(部分翻译)
Attention is all you needAuthor Unit: Google Brain, Google Research, University of TorontoAuthors: Ashish Vaswani∗^*∗, Noam Shazeer*, Niki Parmar*, Jakob Uszkoreit*, Llion Jones*, Aidan N. Gomez*†^††, Łukasz Kaiser∗^∗∗, Illia Polosukhin∗‡^{∗ ‡}∗‡Code: h
2021-11-29 11:54:31
2038
原创 ICCV 2021 | High-Fidelity Pluralistic Image Completion with Transformers 阅读笔记(部分翻译)
High-Fidelity Pluralistic Image Completion with Transformers作者:Ziyu Wan1^11 Jingbo Zhang1^11 Dongdong Chen2^22 Jing Liao1∗^{1*}1∗单位:1^11City University of Hong Kong 2^22Microsoft Cloud + AI会议:ICCV 2021项目地址:raywzy.com/ICTAbstract由于CNN的一些固有属性(sp
2021-11-25 11:27:25
3950
原创 CVPR 2018 | Generative Image Inpainting with Contextual Attention 阅读笔记(翻译)
Generative Image Inpainting with Contextual Attention作者:Jiahui Yu1^11 Zhe Lin2^22 Jimei Yang2^22 Xiaohui Shen2^22 Xin Lu2^22 Thomas S. Huang1^11单位:1^11University of Illinois at Urbana-Champaign 2^22Adobe Research会议:CVPR 2018Abstract最近的基于深度学习
2021-08-20 19:20:57
997
原创 ICLR2021 | USING LATENT SPACE REGRESSION TO ANALYZE 阅读笔记(翻译)
USING LATENT SPACE REGRESSION TO ANALYZE AND LEVERAGE COMPOSITIONALITY IN GANS作者:Lucy Chai, Jonas Wulff & Phillip Isola单位:MIT CSAIL, Cambridge, MA 02139, USA邮箱:{lrchai,wulff,phillipi}@mit.edu会议:ICLR 2021项目地址:https://chail.github.io/latent-composit
2021-08-15 16:50:24
398
原创 深入浅出的Wasserstein GAN
在此Mark一下对经典WGAN进行了非常直观描述的一篇知乎文章:标题:令人拍案叫绝的Wasserstein GAN网址:https://zhuanlan.zhihu.com/p/25071913作者:郑华滨 SenseTime(商汤科技)该文章很好的讲述了WGAN的由来,过程和总结。以下是对该文章的摘取。WGAN中做了很多的数学推理,最终得到了以下修改:判别器最后一层去掉sigmoid生成器和判别器的loss不取log每次更新判别器的参数之后把它们的绝对值截断到不超过一个固定常数c不要用
2021-08-12 22:06:53
619
原创 CVPR 2020 | Editing in Style: Uncovering the Local Semantics of GANs 阅读笔记(部分翻译)
Editing in Style: Uncovering the Local Semantics of GANs作者:Edo Collins, Sabine Süsstrunk{School of Computer and Communication Sciences, EPFL, Switzerland}, Raja Bala, Bob Price{Interactive and Analytics Lab, Palo Alto Research Center, Palo Alto, CA}会议:CV
2021-06-02 17:31:20
1053
1
原创 NIPS 2019 | CC-FPSE 阅读笔记(翻译)
Learning to Predict Layout-to-image Conditional Convolutions for Semantic Image Synthesis作者:Xihui Liu, Xiaogang Wang, Hongsheng Li{The Chinese University of Hong Kong}, Guojun Yin{University of Science and Technology of China}, Jing Shao{SenseTime Resea
2021-05-12 16:41:14
1209
原创 CVPR 2020 | Semantically Multi-Modal Image Synthesis 阅读笔记(翻译)
Semantically Multi-modal Image Synthesis作者:Zhen Zhu, Zhiliang Xu, Xiang Bai{Huazhong University of Science and Technology}, Ansheng You{Peking University}会议:CVPR 2020CVPR对应网址论文:https://openaccess.thecvf.com/content_CVPR_2020/papers/Zhu_Semantically_Mul
2021-05-11 21:30:37
925
原创 CVPR 2019 | SPADE 阅读笔记(翻译)
Semantic Image Synthesis with Spatially-Adaptive Normalization作者:Taesung ParkP{UC Berkeley}, Ming-Yu Liu{NVIDIA}, Ting-Chun Wang{NVIDIA}, Jun-Yan Zhu{NVIDIA, MIT CSAIL}会议:CVPR 2019CVPR对应网址论文:https://arxiv.org/abs/1903.07291 (这篇论文在CVPR官方下载的pdf,里面的文字无法选
2021-05-10 21:46:20
6247
2
原创 Pix2PixHD 阅读笔记(翻译)
High-Resolution Image Synthesis and Semantic Manipulation with Conditional GANs作者:Ting-Chun Wang{NVIDIA}, Ming-Y u Liu{NVIDIA}, Jun-Yan Zhu{UC Berkeley}, Andrew Tao{NVIDIA}, Jan Kautz{NVIDIA}, Bryan Catanzaro{NVIDIA}会议:CVPR2018论文链接:https://arxiv.org/abs
2021-03-31 11:41:03
1393
原创 ZF Net 阅读笔记(部分翻译)
Visualizing and Understanding Convolutional Networks 阅读笔记(部分翻译)作者:Matthew D. Zeiler{New York University}, Rob Fergus{New York University}会议:European conference on computer vision ECCVZeiler, Matthew D., and Rob Fergus. “Visualizing and understanding c
2021-03-27 15:04:19
320
原创 StyleGAN 阅读笔记(翻译)
A Style-Based Generator Architecture for Generative Adversarial Networks作者:Tero Karras{NVIDIA}, Samuli Laine{NVIDIA}, Timo Aila{NVIDIA}会议:CVPR 2019以下是个人做的大致翻译(不是全部的翻译)或段落总结,如果直接想看文章总结,这个网址的内容写的很好 https://zhuanlan.zhihu.com/p/63230738。Abstract我们提出的新结构可
2021-03-10 09:16:53
1285
原创 AlexNet imagenet classification with deep convolutional neural networks 阅读笔记
NIPS-2012-imagenet-classification-with-deep-convolutional-neural-networks-Paper该网络有60,000,000个参数、650,000个神经元,包含5个卷积层(有一些后面跟着最大池化层),三个全连接层和一个1000-way的softmax。为了训练的更快,我们使用了非饱和神经元并对卷积操作进行了非常有效的GPU实现。为了减少全连接层的过拟合,我们采用了一个最近开发的名为dropout的正则化方法,结果证明是非常有效的。1 Intr
2021-02-03 17:24:58
284
原创 StackGAN 阅读笔记
StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial Networks 阅读笔记Abstract我们通过一个 粗糙-细化 过程将困难的问题分解成了可管理的子问题。Stage-I的GAN根据文字描述粗糙的生成了原始的形状和颜色,获得了Stage-I的低分辨率图片。Stage-II的GAN以Stage-I的结果图片和文字描述为输出,生成了带有逼真细节的高分辨率图片。它能够纠正Stage-I的
2021-02-02 11:40:57
831
3
原创 易错点
1.LONG lONG 如果你有很大的数据要用到Long long 时,别忘了把必要的数据强制转化为Long long..比如HDU5969的ans累加时,就要强制转换。
2018-03-18 11:58:10
219
原创 简单又复杂的算法--分块
对于区间操作的问题,部分可以用分块来做事实上分块还是蛮简单的,主要是看分块之后怎么样进行处理,它很灵活,没有固定的模式还是拿题目来举例吧Bzoj 2002 Bzoj 3065Bzoj 2002 分块版#include"cstdio"#include"cmath"#define Maxn 200005int st[Maxn],pt[Maxn],belong[Max
2018-01-14 10:48:13
4262
原创 KMP求重复字符串——HDU1358
这个题目蛮有意思的,大家都说用到了什么KMP的灵魂--next[]数组的应用,可是也没见哪个人给我来个很正式的数学推导。。到最后也只是看到了一个博客上写的是由观察得来的结论--http://blog.youkuaiyun.com/lizhihaoweiwei/article/details/76977431其实也就是一个规律性的东西,就是你利用next数组以及长度为i的前缀可以得出一个满足重复的条件:
2017-12-28 19:52:59
419
转载 初步理解KMP--HDU1686
这个题目一看就是字符串匹配,明显就是KMP嘛。。我们来具体说一下KMP算法的原理即实现1. 引言 本KMP原文最初写于2年多前的2011年12月,因当时初次接触KMP,思路混乱导致写也写得混乱。所以一直想找机会重新写下KMP,但苦于一直以来对KMP的理解始终不够,故才迟迟没有修改本文。 然近期因开了个算法班,班上专门讲解数据结构、面试、算法,才再次仔细回
2017-12-11 21:25:20
206
原创 Hdu 1181 -- 简单深搜的剪枝以及vector小结
这个题目,一看就是深搜,但是一开始打完之后提交是栈溢出。。这样的话就一定是要剪枝优化的深搜。。于是我用了一个变量来判断递归的次数,如果大于1000000就不再递归,直接输出“No.”,结果。。居然AC了。。此刻我的内心十分矛盾。。因为我已经做好了WA的准备,可是却AC了。。其实这个题目的剪枝挺普通的,举例说明: 现在有两个字符串 baaaa aaaab 如果不做
2017-11-28 20:17:00
297
原创 Sort小结
首先使用sort需要一个头文件#include 最简单的使用就是sort(begin,end); 如果是要排序a数组,要排序其前五个数,就是sort(a,a+5); 注意!注意!注意!:这里的begin 和 end 一定要搞清楚,如果从a[1]开始排序,就是sort(a+1,a+5+1),而不是sort(a+1,a+5)。这也算一个易错点吧。。千万别因为这个小错误,导致整个题目出错(唉。。调试
2017-11-28 12:39:37
215
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人