
NLP
文章平均质量分 63
MezereonXP
A developer ,love life, love saber
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Gensim如何冻结某些词向量进行增量训练
Gensim是一个可以用于主题模型抽取,词向量生成的python的库。像是一些NLP的预处理,可以先用这个库简单快捷的进行生成。比如像是Word2Vec,我们通过简单的几行代码就可以实现词向量的生成,如下所示:import gensimword_list = ["I", "love", "you", "."]model = gensim.models.Word2Vec(sentences=word_list, vector_size=200, window=10, min_count=1, wo原创 2021-10-21 16:45:18 · 334 阅读 · 0 评论 -
EKLAVYA -- 利用神经网络推断二进制文件中函数的参数
EKLAVYA – 利用神经网络推断二进制文件中函数的参数文章目录EKLAVYA -- 利用神经网络推断二进制文件中函数的参数问题介绍以及形式化定义方法设计数据准备实验结果这一次介绍一篇文章,名为Neural Nets Can Learn Function Type Signatures From Binaries来自于新加坡国立大学Zhenkai Liang团队,发在了Usenix Security 2017上问题介绍以及形式化定义该工作主要关注的问题是函数的参数推断,包含两个部分:参数的个原创 2021-10-04 23:35:34 · 357 阅读 · 0 评论 -
Prompt 范式简述
Promot 范式简述Traditional Framework:pre-trainfine-tune传统的训练框架为,先在一个大规模的数据集上对模型进行预训练,然后在目标任务的数据集上进行微调。Prompt Frameworkpre-trainpromptpredictPrompt框架则是分成三个部分,预训练,Prompt生成,以及预测Goal: Let the pertained model itself can be used to predict the desired原创 2021-08-23 15:45:59 · 634 阅读 · 0 评论 -
Attention is All You Need 论文笔记
文章目录概述背景模型架构概述主流的序列转换模型(dominant sequence transduction models)都是基于复杂的递归神经网络或者卷积神经网络,包括一个编码器(encoder)和一个解码器(decoder)表现最好的模型是利用注意力机制将编码器和解码器连接起来我们提出了一个简单的网络架构Transformer,简单地基于注意力机制,并且不用递归和卷积操作在实验中,在两个机器翻译任务上,我们的模型表现出更强的并行性,同时训练时间也较短我们的模型在WMT2014英转德翻译任务原创 2020-06-18 17:44:57 · 1363 阅读 · 0 评论 -
如何将SQL语句进行自动翻译
如何将SQL语句进行自动翻译这里我们利用SQL-to-Text Generation with Graph-to-Sequence Model一文, 给大家简单介绍一下如何对SQL语句进行自动翻译首先我们来谈谈这个动机, 我觉得最大的动机可能是为了让非技术人员可以了解SQL语句的意义, 进而提出来一种解决方案, 对SQL语句进行自动化的翻译.说到自动化翻译, 其实就是自然语言处理方面的问题了...原创 2018-11-18 23:34:51 · 9235 阅读 · 5 评论