- 博客(22)
- 收藏
- 关注
原创 Notepad++ 批量替换时常用方法
5.选中字符后,按Ctrl+H,不需要手动输入替换字符信息,直接生成。2.在行首批量增加字符/数字,行首字符表示为:^3.在行尾批量增加字符/数字,行尾字符表示为:$使用shift + 方向键(↑ 或 ↓)4.特殊字符需要转义,例如: ()加上转义符号 \ 即可成功查询。1.Ctrl+H 替换快捷键。此时鼠标光标定位在最后。可以达到多行选择的效果。6.利用键盘选择多行。
2023-10-30 11:26:24
8325
原创 自然语言处理入门理论知识
一、什么是自然语言处理自然语言处理(Natural Language Processing,NLP)是人工智能领域的主要内容,研究用电子计算机模拟人的语言交际过程,使计算机能理解和运用人类社会的自然语言,实现人机之间的自然语言通信,以代替人的部分脑力劳动,包括查询资料、解答问题、摘录文献、汇编资料以及一切有关自然语言信息的加工处理。1.1 自然语言处理的过程自然语言处理的基础:词法分析,语法分析,语义分析第一步:分析源语言(文本理解) 通过词法分析,语法分析,语...
2021-06-24 11:24:03
7321
原创 torch.Tensor.view(*args)的用法以及-1的使用
torch.Tensor.view(*args)函数作用:返回一个有相同数据但形状不同的tensor。返回的tensor必须有与原tensor相同的数据和相同数目的元素,但形状可以自己定义。一个tensor必须是连续的contiguous()才能被查看。关于连续可以参考这里函数参数及实现:参数主要是定义输出tensor的形状。这里要提到-1的使用。参数可以是这样的形式:x = torch.randn(3, 4)print(x)y = x.view(-1,6)print(y)
2021-04-21 16:34:53
2180
原创 torch.rand()与torch.randn()的用法与区别
torch.rand*sizes, out=None)函数作用:返回了一个张量,包含了从0-1的均匀分布中抽取的一组随机数,张量的形状由size定义。函数参数sizes:生成张量的形状。函数举例y=torch.rand(2, 2, 3)print(y)输出:生成了两个二行三列的数组,且取值从0,1之间的均匀分布中抽样。torch.randn(*sizes, out=None)函数作用:返回了一个张量,包含了从标准正态分布(均值为0,方差为1)中抽取的一组随机数。张量的形状
2021-04-21 16:00:52
9974
原创 torch.narrow()
官方文档:def narrow(self: Tensor, dim: _int, start: _int, length: _int) -> Tensor:函数作用::将第dim维缩短,也就是切片。比如是5行5列的矩阵,我们只需要其中的第3到4行start为2,起始是第三行length为2,一共需要切出两行函数参数:input (Tensor) – 需要被操作的Tensordim (int) – 需要被压缩的维度(可以用行,列来类比)start (int) – 从哪一维(可以用
2021-04-20 13:15:53
703
原创 pip install 参数
输入pip install --help相关参数Usage: pip install [options] <requirement specifier> [package-index-options] ... pip install [options] -r <requirements file> [package-index-options] ... pip install [options] [-e] <vcs project url> ...
2021-04-19 08:38:13
6299
原创 pip install下载一些包很慢,可-i 从豆瓣源下载
在pip install后面加上-i http://pypi.doubanio.com/simple/ --trusted-host pypi.doubanio.com-i是pip的参数,从指定仓库下载http://pypi.doubanio.com/simple/ --trusted-host是豆瓣源仓库,下载速度很快,一般的包都有。最终版本pip install pkg_包名 -i http://pypi.doubanio.com/simple/ --trusted-host
2021-04-19 08:34:44
608
原创 torch.cuda.is_available() false情况分析
出现问题:cuda已经安装成功,但是程序调用时失败。问题原因:pytorch版本与cuda版本不匹配比如:本机环境是cuda 10.1虚拟环境中一开始安装的pytorch 1.3.1但是对应的是cuda9.2这个时候就要强制更新pytorch版本为适配版本。解决方法:首先进入pytorch官网pytorch官网首页的版本安装命令为:当前稳定版本图片最下方有之前的历史版本,点击可进入查看并挑选对应版本pytorch安装。找到你(环境需要的&&cuda版本对应)的
2021-04-19 08:22:43
435
1
原创 Attention,Multi-head Attention--注意力,多头注意力详解
Attention首先谈一谈attention。注意力函数其实就是把一个query,一个key-value的集合映射成一个输出。其中query,key,value,output(Attention Value)都是向量。输出是values的加权求和,是query与当前key的相关程度。Attention 函数的本质可以被描述为: 一个查询(query)到一个系列(键key-值value)对的映射。例如:计算A与B的attention,就是用A的Q与B的K-V来计算。Scaled Do
2021-03-26 18:21:26
44533
3
原创 Transformer结构笔记
Transformer本身是一个典型的encoder-decoder模型。一、Encoder端&Decoder端总览简单来看一个编码器和一个解码器的作用。Encoder端由N(原论文中N=6)个相同的大模块堆叠而成。Decoder端同样由N(原论文中N=6)个相同的大模块堆叠而成。但是两个模块的组成有所不同。左:Encoder 右:DecoderEncoder端每个大模块又由 两 个子模块构成,这两个子模块分别为多头self-attention模块,以及一个前馈神经网络模块。
2021-03-26 18:10:59
765
1
原创 Java-Filter简单用法
概念对目标资源的请求和响应进行过滤截取。在请求到达servlet之前,进行逻辑判断,判断是否放行到servlet;也可以在一个响应response到达客户端之前进行过滤,判断是否允许返回客户端。它是随你的 web应用启动而启动的,只初始化一次,以后就可以拦截相关请求。只有当你的web应用停止或重新部署的时候才销毁。注意:同一个页面可以被多次过滤(设置多个过滤器)。一个过滤器(过滤方法)也可以应用于多个页面。Filter的使用方法:首先要记得配置web.xml//定义你的filter
2021-03-26 17:38:42
886
原创 基于model2的登陆流程实现(简单)
环境配置: Idea 2020.3 Tomcat 9 Maven 3.6.3 MySQL 8.0+Navicat 15新建项目:从原型创建,选择…webapp写自己的项目名字如果自己下载了maven从这里使用自己安装的maven,第二行选择覆盖,用自己的路径的setting覆盖掉。第三行选择自己的仓库。...
2021-03-23 12:56:23
836
原创 第一次论文复现--环境配置
第一次论文复现只看论文不自己跑一跑的话水平可能不会有提高。所以要锻炼自己的动手能力。记录一下自己复现论文的经历。之前从GitHub上找了一个项目,由于依赖包不完全没能成功运行。这次从看的论文里找了源码,记录一下自己的步骤,以待后续有长进。首先下载代码,解压到自己的pycharmprojects,导入。下载好的代码文件一般会有env.yml。这个是环境的配置文件。environment.yml是一个分享环境的文件通过下面命令从该文件来创建相同环境,方便共同开发。切换到env.yml文件所在
2021-03-19 13:23:16
3489
1
原创 open-nmt导入报错
anaconda虚拟环境安装完onmt之后pycharm中import onmt报错在虚拟环境中再次进入刚刚clone的open-nmt的目录输入在这里插入代码片 python setup.py install
2020-11-25 23:30:40
207
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人