- 博客(72)
- 资源 (2)
- 收藏
- 关注

原创 ubuntu的N卡深度学习全套安装
ubuntu的N卡深度学习全套安装全套安装装系统加快你的系统安装anaconda解决源问题安装虚拟环境和优化jupyter界面安装显卡驱动安装cuda和cudnn安装pycharm功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必...
2019-10-20 14:44:20
1021
1
原创 ubuntu使用transformers
安装并同步最新的transformerpip uninstall transformerspip install git+https://github.com/huggingface/transformers
2022-05-13 16:07:37
551
原创 second笔记
从零开始学bert,预训练实战笔记(torch版本):https://zhuanlan.zhihu.com/p/356750146如何使用Transformers和Tokenizers从头开始训练新的语言模型https://huggingface.co/blog/how-to-train文本分类上分微调技巧实战:有一些技巧https://www.jianshu.com/p/83e8907c531a...
2022-04-01 11:17:27
2755
原创 jupyter notebook 常用帮助笔记
1. 不提示候选开头输入以下即可%config Completer.use_jedi = False
2022-02-19 19:16:14
633
原创 pytorch正确的安装torch_geometric,无bug、多种类版本
1.综合一定要注意版本对应版本对应以及whl目录2.稳定推荐注意:安装顺序按我的序号来安装版本一python 3.6.5torch: 1.7.1_cu110torch_cluster-1.5.9-cp36-cp36m-linux_x86_64.whltorch_scatter-2.0.7-cp36-cp36m-linux_x86_64.whltorch_sparse-0.6.9-cp36-cp36m-linux_x86_64.whl再安装torch_geometricpip in
2021-09-26 10:37:59
16633
6
原创 Latex常见帮助小笔记
1. 表格设定长度# 开头一定要添加这个\usepackage{array}\newcolumntype{C}[1]{>{\centering}p{#1}}\setlength{\parindent}{15pt}然后就可以# 在tabular这里,添加了\begin{tabular}{ | c | c | c | p{2cm}<{\centering} |} \hline Day & Min Temp & Max Temp & This is a lo
2021-06-25 12:08:02
2344
1
原创 sp常见用法
sp.diags# inputs:[0.06896536 0.03290889 0.05405389 0.06451621 0.03508776 0.04255323 0.4 0.05714307 0.4 0.07407343 0.08610969 0.0253165 ]print(sp.diags(r_inv))# output: 对角矩阵,但是是稀疏的。 (0, 0) 0.06896536 (1, 1) 0.03290889 (2, 2) 0.0540.
2021-05-24 02:13:54
1220
原创 visio转换pdf后公式糊掉;excel导出表格不规范
前言我是visio2013版本。最近论文画的超大模型图,带有一些公式符号,在导出后变成糊了,以前没遇到过。解决办法只能用打印,不可以用导出和另存为
2021-03-15 19:44:57
2763
3
原创 torch中的乘法符号(*),torch.mm()和torch.matmul(),torch.mul(), torch.bmm()
前言torch中常见的一些矩阵乘法和元素乘积,说白了无非就是以下四种,为了避免忘了,做个笔记乘法符号 *torch.mul()torch.mmtorch.matmul1. 对比乘法符号*# shape=(2,5)node = tensor([[1, 1, 1, 0, 0], [1, 1, 1, 1, 1]])node_0 = node.unsqueeze(-1)'''tensor([[[1], [1], [1], [0]
2021-03-01 18:33:49
3450
3
原创 深度学习神经网络项目常见小程序和帮助函数
前言通常,我们的代码中需要一些小函数可以提高我们的代码阅读,这里做点笔记。帮助函数1. 显示时间import timeimport mathdef asMinutes(s): m = math.floor(s / 60) # 地板取整 s -= m * 60 return '%dm %ds' % (m, s)def timeSince(since, percent): now = time.time() s = now - since es
2021-01-28 13:31:52
866
1
原创 pytorch中expand()和expand_as()和repeat()函数解读
简要三个函数都是扩展tensor维度存在的。1. expand()和expand_as()这两个函数放在一起说比较好。expand(*sizes) → Tensor关于size是一个
2020-11-23 22:06:50
2017
原创 pytorch之数据:pack_padded_sequence()与pad_packed_sequence()
前言pack_padded_sequence()与pad_packed_sequence()这两个函数属于torch.nn.utils包中用来处理数据的。前者用于压紧数据,后面用于解压数据。一. 官方+理解1. pack_padded_sequence'官方函数'torch.nn.utils.rnn.pack_padded_sequence(input, lengths, batch_first=False) → PackedSequence这里的pack,理解成压紧比较好。 将一个 填充过的
2020-09-13 15:41:15
11044
7
原创 python中星号(*)和双星号(**)的解包和打包作用、python函数返回多个值是元祖
前言关于星号的探索来源于在很多的代码学习中,函数简写中,使用了如下的格式函数体(*被调用的函数名())这是因为在python中函数的返回是元组形式的,不是 sdxez
2020-08-23 20:19:28
3347
原创 pytorch结构函数tensor.view()和terson.reshape(),以及contiguous()为何存在
前要这两个函数都是用来改变tensor的形状的,但是他们两是有内存共享的区别,因为这个区别。三个提前说的注意点:x是个tensor,x += 1和x= x+1在pytorch中是有区别的, 后者会重开内存地址。学过面向对象语言都知道,对象和数据的地址是分开的,比如x = [1,2,3],对象是x,数据是[1,2,3]。id()函数只能看对象内存地址,storage()函数可以看数据内存地址。1. 文档解释view()# 使用方法x_tensor.view(*args) → Tensor
2020-08-12 23:03:02
3392
10
原创 pytorch中的register_parameter()和parameter()
前言这两个都是一个东西,使用上有细微差别。差别Parameter()Parameter是Tensor,即 Tensor 拥有的属性它都有,⽐如可以根据data 来访问参数数值,⽤ grad 来访问参数梯度。举例:# 随便定义一个网络net = nn.Sequential(nn.Linear(4, 3), nn.ReLU(), nn.Linear(3, 1)) # list让它可以访问weight_0 = list(net[0].parameters())[0]print(weight
2020-06-24 21:33:57
19843
2
原创 pytorch函数之scatter()和scatter_()
前言这两个函数,其实本来有一个大佬写的比较清楚了,但是说实话,总是给忘具体使用细节。我还是自己写一个更清晰的吧。官方文档scatter_()scatter_(input, dim, index, src) → Tensor其实这样写会造成迷惑,建议这么按下面的理解:理解input.scatter_(dim, index, src) → Tensorinput: 我们需要插入数据的起源tensor;也就是想要改变内部数据的tensordim:我们想要从哪个维度去改input数据ind
2020-06-10 23:12:08
5776
2
原创 ubuntu全版本 安装pytorch-gpu或者cpu版本(简约安装版,少Bug,记录一下)
网上安装的各种方法,牛鬼蛇神。。我自己记录一个我半个小时就装好的版本。加速系统源安装显卡驱动cuda和cudnn安装pytorch-gpu或者按我这一套很详细的来,基本上可以了。
2020-05-08 17:50:52
939
原创 ubuntu安装Zotero,任何版本ubuntu适用
两个方法方法一没有外网很慢# 添加ppa$ sudo apt-add-repository ppa:smathot/cogscinl # 更新源$ sudo apt-get update# 下载--$ sudo apt-get install zotero-standalone方法二直接下载安装包,创建链接使用下载安装包,zotero官网提供解压到一个文件夹终...
2020-04-09 12:13:23
19661
21
原创 pytorch从F.softmax(dim)出发,看数学解释和各种函数维度的解释
从F.softmax(dim)出发看维度dim的选择1.dim定义:当矩阵x是二维的时候(这个大家都懂,行列去理解)dim=0代表:∑i=0Nx[i,j]=1\sum_{i=0}^N x[i,j ]=1i=0∑Nx[i,j]=1 j是个固定值,是常数;N的值来自len(x[:,j])-1,也就是一共多少行减1;代码表现方式:sum(x[:,j]) = 1 → Tensor...
2020-04-06 23:10:06
4562
1
原创 PyTorch 两大转置函数 transpose() 和 permute(), 以及RuntimeError: invalid argument 2: view size is not compati
关心差别的可以直接看【3.不同点】前言在pytorch中转置用的函数就只有这两个transpose()permute()这两个函数都是交换维度的操作。有一些细微的区别1. 官方文档transpose()torch.transpose(input, dim0, dim1, out=None) → Tensor函数返回输入矩阵input的转置。交换维度dim0和dim1参数:...
2020-03-31 22:59:07
99090
11
原创 torch.cat()函数的官方解释,详解以及例子
可以直接看3.例子,就明显1和2说的啥了在pytorch中,常见的拼接函数主要是两个,分别是:stack()cat()他们的区别参考这个链接区别,但是本文主要说cat()。前言该函数总的来说和python内置函数cat()函数没有区别。1. cat()官方解释----torch.cat(inputs, dim=0) → Tensor函数目的: 在给定维度上对输入的张量序列se...
2020-03-30 21:28:19
265394
18
原创 torch.stack()的官方解释,详解以及例子
在pytorch中,常见的拼接函数主要是两个,分别是:stack()cat()他们的区别参考这个链接区别,但是本文主要说stack()。前言该函数是经常出现在自然语言处理(NLP)和图像卷积神经网络(CV)中的基础函数,用来拼接序列化的张量而存在的,相对于cat(),因为stack更容易想到栈内存,该函数更加让初学者觉得陌生。通常stack为了保留–[序列(先后)信息] 和 [张量...
2020-03-30 20:54:05
178841
21
原创 ubuntu安装pytorch的CPU版本GPU版本,分conda安装和pip安装,以及whl离线安装pytorch
一般来说,阻拦安装我们安装cpu版本的pytorch只有一个原因那就是网络极差,安装超久。下文是不受此影响的安装方法。前提你安装了Anaconda即可。1. 更改anaconda的安装源# 添加三个源conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/pytorch/conda c...
2020-03-25 17:41:05
17866
9
原创 2020年ubuntu安装QQ和微信和迅雷的正确姿势
前言其实大部分老手都知道怎么装,但是最近由于国内网络、微信更新、QQ更新,出了一系列问题,还是写个做笔记。方法一是常见的安装方案,优点简单,还过得去用起来。方法二目前只知道在国外很好用,国内很难下载,优点是兼容性极好。(有的老手知道Flatpak安装,但是这个方案经常tim输入法没中文,闪退概率还很大。)方法一:用wine环境支撑安装你需要一个git,安装方法:在终端输入apt ins...
2020-03-03 20:59:49
11835
17
原创 笔记本的Ubuntu16.04和Ubuntu18.04如何关闭触摸板
因为疫情,在家学习,但是家里只有很卡的笔记本,刷成Ubuntu学习才好点,但是触摸板太讨厌了,所以记录一下。推荐方法二方法一:直接关闭查看有哪些仪器在使用。z@z:~$ xinput list返回⎡ Virtual core pointer id=2 [master pointer (3)]⎜ ↳ Virtual core XTES...
2020-02-27 15:56:51
625
原创 解决1.tensorflow运行使用CPU不使用GPU 2.tensorflow环境下的GPU版本号 3.tensorflow和cuda以及cudnn版本对应问题 4.查看cuda和cudnn版本
这个问题主要针对三个问题:查看tensorflow环境下的GPU版本号解决tensorflow运行使用CPU不使用GPUtensorflow和cuda以及cudnn版本对应问题这三个问题的解决方法,要从问题一出发解决。并且我们假定你会使用Anaconda的虚拟环境以及安装tensorflow-gpu,也会安装CUDA和CUDNN安装Anadonda安装tensorflow-gpu...
2019-12-29 12:42:19
10939
原创 tf.data.Dataset.zip()讲解 和 python自带的zip()的异同
Dataset说到tf.data,哎那就是一个大话题,这个东西复杂的很,但是总的归根结底就是一个东西:Dataset数据。关于学习tf.data和tf.data.Dataset我一直认为仔细看源码,比看任何解释都好,因为源码其实是有解释的。直接进入正题dataset.zip()与zip()这个函数和python中的zip()相当的不一样,切勿被迷惑了双眼。首先tensorflow中的zi...
2019-12-28 22:48:56
5867
2
原创 tensorflow和numpy对应的版本,报FutureWarning: Passing (type, 1) or ‘1type‘ as a synonym of type is deprecate
tensorflow和numpy对应的版本目前我摸索出来的就就有tensorflownumpy1.141.16.01.121.15.4
2019-12-27 21:01:31
36361
22
原创 pip常见命令和更改源文件
我们知道:命令格式pip的下载更新命令是.:非常重要pip install/update/upgrade [可选命令] 源位置 包文件名[==版本,默认最新]解释install/update/upgrade:选择下载还是更新还是【包括周围依赖包一起更新】。前面两个都是针对本包的动作,而upgrada就没那么简单了,举例说明注:upgrade禁术,少用$ pip upgrade ...
2019-12-27 20:57:48
4034
原创 关于anaconda中conda下载包或者pip下载包很慢的原因,加速下载包的方法(无视anaconda版本和环境)
加速的方法无非就是更改包的来源,也就是源位置。所以我们先理解一下源位置1. 源位置所谓的源位置就是你的索引下载包的位置是哪里。打个比方,我们安装tensorflow的CUDA时候:版本CUDA10.1开始,在ubuntu安装方式是如下命令,我们以cuda_10.2.89_440.33.01_linux_ppc64le.run为例子$ wget http://developer.downl...
2019-12-27 20:48:05
5585
原创 TensorFlow—计算梯度与控制梯度 : tf.gradients和compute_gradients和apply_gradients和clip_by_global_norm控制梯度
TensorFlow的梯度我们知道训练神经网络有一个很重要的就是反向传播更新参数,如果没有经历过2015-2017年的神经网络的研究生,这一步听陌生的,但是不重要,我们知道TensorFlow给我们API怎么用就行了。对于反向传播这一步,我们常见的代码是如下:# 损失计算,也就是优化对象loss = tf.nn..............# 反向传播# 定义优化器,学习率定义1.0...
2019-12-25 16:22:12
6499
原创 RNN中的sparse_softmax_cross_entropy_with_logits
看完这个例子你就懂了# batch_size是2,时间步是2ax = [[1,2,3,4],[2,3,4,5],[2,2,4,5],[2,1,4,5]]# 2*2,4bx = [[2,1],[2,3]]ax = tf.convert_to_tensor(ax,dtype=tf.float32)bx = tf.convert_to_tensor(bx)z = tf.nn.sparse_s...
2019-12-23 21:56:30
176
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人