NLP
不会编程的ITer
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
实现dual attention
代码实现如下:import torchimport torch.nn.functional as FA = torch.ones(3,2)B = torch.ones(2,2)a = torch.Tensor([1,2,3]).reshape(3,1)b = torch.Tensor([4,5]).reshape(2,1)A = torch.mul(A,a)B = torch.mul(B,b)W = torch.rand(6,1)print('W:',W)print(A)pr..原创 2021-04-27 15:08:17 · 608 阅读 · 0 评论 -
网格搜素
代码:# -*- coding: utf-8 -*-# 任务:鸢尾花识别from sklearn.model_selection import train_test_split, GridSearchCVfrom sklearn.neighbors import KNeighborsClassifierfrom sklearn.linear_model import LogisticRegressionfrom sklearn.svm import SVCfrom sklearn.data原创 2021-04-14 10:54:16 · 325 阅读 · 1 评论 -
k折Cross-validation
交叉验证代码:from sklearn.model_selection import train_test_splitfrom sklearn.datasets import load_irisfrom sklearn import svmfrom sklearn.model_selection import cross_val_scoreX, y = load_iris(return_X_y=True)X_train, X_test, y_train, y_test = train_te原创 2021-04-14 10:52:21 · 176 阅读 · 0 评论 -
TF-IDF
代码:#引入TfidfVectorizerfrom sklearn.feature_extraction.text import TfidfVectorizertv = TfidfVectorizer(use_idf=True, smooth_idf=True, norm=None)# 输入训练集矩阵,每行表示一个文本train = ["Chinese Beijing Chinese", "Chinese Chinese Shanghai",原创 2021-04-14 10:49:06 · 269 阅读 · 0 评论 -
tensorflow改写为pytorch的方法总结
替换方法:1.matrix = tf.get_variable("Matrix", [output_size, input_size], dtype=input_.dtype)=matrix = Variable(torch.randn(output_size, input_size))2.self.D_l2_loss = tf.constant(0.0)= self.D_l2_loss = torch.Tensor(0.0)3.losses = tf.nn.s...原创 2020-12-22 11:52:18 · 1239 阅读 · 0 评论 -
Python中的defaultdict函数与Trie树
dict()对于普通的dict,key不存在就报错。>>> a = dict()>>> a['k1'] = 1>>> a{'k1': 1}>>> a['k2']Traceback (most recent call last): File "<stdin>", line 1, in <module>KeyError: 'k2'>>>from collection原创 2020-12-02 11:58:30 · 673 阅读 · 1 评论 -
Python打印出args命令行参数
parser = argparse.ArgumentParser()#Training Environmentparser.add_argument("--batch_size", type=int, default=16, help="Batch size.")parser.add_argument("--max_epochs", type=int, default=20, help="Max epochs to train.")parser.add_argument("--no_early.原创 2020-11-19 22:21:13 · 5221 阅读 · 1 评论 -
深入浅出理解CrossEntropy
import torchimport numpy as npimport torch.nn.functional as Fx = np.array([[1, 2,3,4,5], [1, 2,3,4,5], [1, 2,3,4,5]]).astype(np.float32)y = np.array([1, 1, 0])x = torch.from_numpy(x)y = torch.from_numpy(y).long() #标签为long型.原创 2020-10-10 15:51:02 · 822 阅读 · 0 评论 -
解决ModuleNotFoundError: No module named ‘pip‘问题
pip install --upgrade pip更新新版本没成功,但是发现pip命令都用不了,出现了ModuleNotFoundError: No module named 'pip’这个错误。解决办法如下:python -m ensurepippython -m pip install --upgrade pip原创 2020-09-13 08:33:33 · 289 阅读 · 0 评论 -
pytorch中expand与gather用法
1、expand()>>> import torch>>> a=torch.tensor([[2],[3],[4]])>>> print(a.size())torch.Size([3, 1])>>> a.expand(3,2)tensor([[2, 2], [3, 3], [4, 4]])>>> atensor([[2], [3], [原创 2020-09-05 22:18:38 · 392 阅读 · 0 评论 -
Python中*args、**args参数
def function_one_star(*args): print(args, type(args))function_one_star(1)def function_x_y_one_star(x, y, *args): print(x, y, args)function_x_y_one_star(1, 2, 3, 4, 5)def function_two_star(**kwargs): print( kwargs, type(kwargs))functi.原创 2020-08-17 17:45:16 · 456 阅读 · 0 评论 -
Pytorch梯度修剪
loss.backward()nn.utils.clip_grad_norm(model.parameters(),1.0)optimizer.step()scheduler.step()原创 2020-08-17 17:13:53 · 407 阅读 · 0 评论 -
gradient_accumulation_steps
gradient_accumulation_steps通过累计梯度来解决本地显存不足问题。假设原来的batch_size=6,样本总量为24,gradient_accumulation_steps=2那么参数更新次数=24/6=4现在,减小batch_size=6/2=3,参数更新次数不变=24/3/2=4在梯度反传时,每gradient_accumulation_steps次进行一次梯度更新,之前照常利用loss.backward()计算梯度。...转载 2020-08-17 16:34:28 · 13991 阅读 · 1 评论 -
tokenizer.encode()
tokenizer.encode("说你跑的挺远",add_special_tokenizerns=False)相当于seg=tokenizer.tokenize("说你跑的挺远")encoder = tokenizer.convert_tokenizerns_to_ids(seg)原创 2020-08-17 11:24:51 · 3884 阅读 · 1 评论 -
pip 安装pytorch 命令
pip install torch===1.2.0 torchvision===0.4.0 -f https://download.pytorch.org/whl/torch_stable.html原创 2020-08-16 22:40:52 · 661 阅读 · 0 评论 -
argparse和tensorflow命令行参数
1、TensorFlow 定义命令行tf.app.flags.DEFINE_string("name","haoren","NAME")tf.app.flags.DEFINE_integer("max_doc_len",70,"max_doc_len")获取命令行参数的值FLAG = tf.app.flags.FLAGSprint(FLAG.name)2、 定义命令行import argparse parser = argparse.ArgumentP...原创 2020-08-15 17:46:39 · 222 阅读 · 0 评论 -
nn.Sequential与nn.ModuleList
nn.Sequentialnn.Sequential里面的模块按照顺序进行排列的,所以必须确保前一个模块的输出大小和下一个模块的输入大小是一致的。如下面的例子所示:方式1:model = nn.Sequential()model.add_module("conv1",nn.Conv2d(1,20,5))model.add_module('relu1', nn.ReLU())model.add_module('conv2', nn.Conv2d(20,64,5))model.原创 2020-08-11 10:38:23 · 632 阅读 · 3 评论 -
torch.utils.data.Dataset/TensorDataset
torch.utils.data.Datasetclass MyData(torch.utils.data.Dataset): def __init__(self, dt, lb): self.dt = dt self.lb = lb def __len__(self): return len(self.dt) def __getitem__(self, index): return self.lb[index原创 2020-08-11 10:31:01 · 429 阅读 · 0 评论 -
Window系统图数据库neo4j安装及入门操作
达到原创 2020-08-04 18:05:27 · 503 阅读 · 0 评论 -
Pytorch入门
from torch.autograd.variable import Variableimport torchimport numpy as npimport matplotlib.pyplot as pltimport torch.nn as nnfrom torch.utils.data import DataLoader,TensorDatasetfrom tqdm import tqdmclass LinearRegre(nn.Module): def __init__(.原创 2020-07-24 20:18:12 · 152 阅读 · 0 评论 -
pip国内镜像(清华大学镜像)
pip install -ihttps://pypi.tuna.tsinghua.edu.cn/simple****原创 2020-07-10 17:15:58 · 711 阅读 · 0 评论 -
Pytorch多GPU并行处理
Pytorch 的多 GPU 处理接口是torch.nn.DataParallel(module, device_ids),其中module参数是所要执行的模型,而device_ids则是指定并行的 GPU id 列表。 而其并行处理机制是,首先将模型加载到主 GPU 上,然后再将模型复制到各个指定的从 GPU 中,然后将输入数据按 batch 维度进行划分,具体来说就是每个 GPU 分配到的数据 batch 数量是总输入数据的 batch 除以指定 GPU 个数。每个 GPU 将针对各自的输入...原创 2020-07-09 11:48:28 · 478 阅读 · 0 评论 -
pytorch利用多个GPU并行计算多gpu
一、 torch.nn.DataParalleltorch.nn.DataParallel(module,device_ids=None,output_device=None,dim=0)在正向传递中,模块在每个设备上复制,每个副本处理一部分输入。在向后传递期间,来自每个副本的渐变被加到原始模块中。module:需要并行处理的模型device_ids:并行处理的设备,默认使用所有的cudaoutput_device:输出的位置,默认输出到cuda:0例子:>>> ...转载 2020-07-08 11:47:37 · 1198 阅读 · 0 评论 -
从value中找到相对应的key
字典:反其道而行之dicxx = {'a':'001', 'b':'002'}print(list(dicxx.keys()))print(list(dicxx.values()))print(list(dicxx.values()).index("001"))print(list(dicxx.keys())[list(dicxx.values()).index("001")])原创 2020-06-28 18:19:52 · 342 阅读 · 0 评论 -
From Independent Prediction to Reordered Prediction: Integrating Relative Position and Global Label
一、情感原因定义情感原因识别emotion cause identification or emotion cause detection(ECI or ECD),即:给定情感标签后,通过模型可以挖掘出特定情感背后的原因。已提出的传统的方法有基于规则的、基于机器学习的等,该方法是通过人工制定的规则或特征来解决情感原因识别问题。二、本文提出的方法及原因本文所用的数据集为theemotion cause benchmark corpus (Gui et al. 2016a)[1].2.1、Relativ原创 2020-06-06 11:24:51 · 369 阅读 · 0 评论 -
ECPE based on Joint Two-Dimensional Representation,Interaction and Prediction
南理工夏瑞老师团队发表在ACL2020的文章一、 Background二、 模型三、 技术四、 实验结果及分析五、 总结一、 Background二、 模型三、 技术四、 实验结果及分析五、 总结原创 2020-06-01 17:32:46 · 1531 阅读 · 1 评论 -
Transition-based Directed Graph Construction for Emotion-Cause Pair Extraction
Transition-based Directed Graph Construction for Emotion-Cause Pair ExtractionWelcome!!!新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入原创 2020-06-01 17:10:26 · 618 阅读 · 0 评论
分享