- 博客(13)
- 资源 (1)
- 收藏
- 关注
原创 Manjaro/Arch 安装docker和相关配置
安装dockeryay -Sy docker安装nvidia-docker(可选)如果要在GPU上运行docker,安装nvidia-docker:yay -Sy nvidia-docker这期间要下载几个包,可能要科学 上网 才能下得动。。。先试试吧。启动/停止docker服务用系统的systemctl管理即可。启动:sudo systemctl start docker停止:sudo systemctl stop docker设置开机自启动:sudo systemctl
2021-04-15 09:49:08
1056
原创 “%”取模/取余是不同的
今天才注意到取模和取余是不同的操作,“%”这个运算符在Python中是取模,而在Java/C/C++是取余。具体来说,两者的计算方法都是如下:[第一步] c=取整(a/b)c=取整(a/b)c=取整(a/b)[第二步] r=a−b×cr=a-b\times cr=a−b×c两者的区别主要在于取整的方法,即:取模时,取整操作是向负无穷方向取整,例如-1.xxxx会被取整为-2。取余时,取整操作是向0的方向取整,例如-1.xxxx会被取整为-1。用一个例子来说明,-7和4作为操作数,取模:c
2021-03-22 19:35:14
2991
原创 transformers BERT等模型在自己的数据集上fine-tune方法
IntroBERT等预训练语言模型能力很强,但官方发布的模型在预训练时用的语料并不一定与你具体任务的语料相似,因此可能造成具体任务上的效果一般。这时候,将预训练语言模型在你自己的语料上再次fine-tune(Masked Language Model等任务),能够进一步提升效果。本文将介绍fine-tune的基本方法。本文针对PyTorch的库transformers的模型。方法Transformers官方很贴心的提供了代码,只要运行就行了。代码和说明在这里(https://github.com/h
2020-12-27 20:17:22
2230
2
原创 多头注意力机制(Multi-head Attention)及其在PyTorch中的使用方法分析
内容目录简介多头注意力机制注意力机制到底在干什么PyTorch中怎么用API简介多头注意力(Multi-Head Attention)机制是当前大行其道的Transformer、BERT等模型中核心的组件,但我一直没懂其内部到底是怎么做的,PyTorch提供的接口的众多参数也弄不清怎么用。今天抽个时间,结合论文和PyTorch源码,深入学习一下到底是怎么回事。仅为个人理解,如有错误敬请指出!多头注意力机制Multi-Head Attention可以表示为:MultiHeadAttention(Q
2020-11-30 21:59:28
29610
1
原创 PyTorch Tensor对Tensor索引(Index wrt Tensor)
简介模型越编越复杂,有时候就会涉及到一些PyTorch里面没有的Tensor操作,这时候就得自己写。最近需要实现Tensor对Tensor的索引,即对于一个Tensor中的每个元素,返回它在另一个Tensor中的位置,例子如下:> inp = torch.LongTensor([5, 3, 6, 9])> index = torch.LongTensor([2, 3, 4, 6, 8, 5, 7, 9])> out = tensor_index(inp, index)>
2020-11-28 19:26:34
946
原创 Github查看任意两次提交之间的差别
内容目录查看任意两次提交间的修改查看特定文件的修改参考在Github上,可以通过点击commits查看每一次提交,再点击每次提交的哈希值可以查看相邻两次提交之间修改的地方,图形化显示非常的清晰明了。那如果想查看任意两次提交之间的差别该怎么办呢?Github没有提供这一功能的按钮,不过仍然可以通过网址来实现。此外,也可以对某一特定文件的修改进行查看。查看任意两次提交间的修改查看任意两次提交间...
2020-02-26 17:32:31
3299
原创 Linux KDE下Chrome窗口缺少最小化和最大化按钮解决方法
原因安装了wine TIM等应用,所以安装了gnome-settings-daemon,这个东西造成了影响。解决方法很多地方都说执行下面这条指令。gsettings set org.gnome.desktop.wm.preferences button-layout ':minimize,maximize,close'但是我得到了以下提示:Lib-GIO-Message: 22:13...
2020-02-08 22:30:54
1424
原创 Pytorch DataLoader 变长数据处理方法
关于Pytorch中怎么自定义Dataset数据集类、怎样使用DataLoader迭代加载数据,这篇官方文档已经说得很清楚了,这里就不在赘述。现在的问题:有的时候,特别对于NLP任务来说,输入的数据可能不是定长的,比如多个句子的长度一般不会一致,这时候使用DataLoader加载数据时,不定长的句子会被胡乱切分,这肯定是不行的。解决方法是重写DataLoader的collate_fn,具体方法如...
2019-03-28 16:51:34
4841
3
原创 Deepin 安装tensorflow gpu亲测教程(适用于双显卡)
这里写自定义目录标题前言Let's GOStep 1: 安装Python参考前言这两天为了在Deepin Linux上安装tensorflow-gpu版真的是一把辛酸一把泪,好在经过无数次踩坑终于完美解决。以下是我的计算机的配置:系统:Deepin Linux 15.9 64位GPU:Intel Corporation 4th Gen Core Processor Integrate...
2019-02-06 11:44:15
4481
11
原创 借助Anaconda同时安装Python 2和Python 3(最优雅的办法)
前言科研或者开发过程中,我们免不了需要同时使用Python 2和Python 3。我们可以借助Anaconda(包含了很多实用库的Python发行版)优雅地同时安装不同版本的Python。由于Conda将Python看做跟其他库无异的库,理论上Conda本身就可以管理多个不同版本的Python包。用本方法安装后,一条命令就可以切换两个不同版本,也并不需要像网上多篇博客说的那样安装两次Anaco...
2019-01-11 16:56:00
9142
4
原创 全平台安装Python(Anaconda)超详细教程
前言科研或者开发过程中,我们免不了需要同时使用Python 2和Python 3。我们可以借助Anaconda(包含了很多实用库的Python发行版)优雅地同时安装不同版本的Python。由于Conda将Python看做跟其他库无异的库,理论上Conda本身就可以管理多个不同版本的Python包。用本方法安装后,一条命令就可以切换两个不同版本,也并不需要像网上多篇博客说的那样安装两次Anaco...
2019-01-10 18:28:22
2029
1
原创 新版gensim Word2Vec使用指南
前言最近两天在学习Word2Vec这个算法,它是NLP领域中非常常用的基础算法,它的作用就是将语料库中的词转化为向量,以便后续在词向量的基础上进行各种计算。这个算法的讲解可以从网络上很容易搜索到,这里就不赘述。Word2Vec算法已经被实现和封装在Python库gensim中,可以很简单的调用。然而在这两天的尝试中,我发现由于gensim的API发生了变化,很多博客的内容已经不能使用,而且他们...
2018-12-19 15:03:11
6706
10
原创 机器学习&深度学习&强化学习 AI自用入门学习资料大集合
开此文,给大家推荐一下我学习AI技术过程中邂逅的好资料,包括机器学习、深度学习、强化学习及其相关技术等AI技术,内容不断更新。感谢这些内容的创作者的辛勤付出!以下内容并不具有学习递进关系,大家可根据需要自行选择。机器学习[英文中字] 吴恩达《机器学习》Coursea在线课程非常非常适合入门,AI大牛吴恩达老师把基础的机器学习和模型讲得非常清楚,每周配以精心设计的Matlab/Octave...
2018-11-08 00:01:59
330
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人