
pytorch
文章平均质量分 72
小涵涵
这个作者很懒,什么都没留下…
展开
-
NLP data处理
NLP data处理pytorch datasettorchtextiterator加载词向量主要总结一下,NLP数据的处理过程NLP数据的处理主要有分词,然后记录每个词出现的次数,每个词对应的id,word2id,id2word。python有很多库如from collections import Counter,scipy,jieba等配合使用pytorch datasetfile = open('train.txt','r')i = 0data,tag,sentence_lst = []原创 2021-10-27 10:47:49 · 798 阅读 · 0 评论 -
NLP词向量
NLP分词Word2vec数据预处理skip-gramCBOW分词Word2vecWord2vec分为skip-gram和CBOW(continuous bag of words),前者是通过中心词预测窗口词,后者是通过窗口预测中心词。数据预处理 K = 10 # 负样本随机采样数量 C = 3 # 周围单词的数量 NUM_EPOCHS = 2 VOCAB_SIZE = 30000 BATCH_SIZE = 128 LEARNING_RATE原创 2021-09-15 14:07:58 · 354 阅读 · 0 评论 -
pytorch dataset及其增强方式
dataloaderSamplercollate_fn三级目录Samplerclass DataLoader(object): ... def __next__(self): if self.num_workers == 0: indices = next(self.sample_iter) # Sampler batch = self.collate_fn([self.dataset[i] for i in原创 2021-03-10 09:59:01 · 1821 阅读 · 1 评论 -
从yolov5谈 Backbone neck和head
从yolov5谈 Backbone neck和headyolov5 流程图resnet+fpnyolov5 流程图PANet实现class YoloBody(nn.Module): def __init__(self, num_anchors, num_classes): super(YoloBody, self).__init__() # backbone self.backbone = darknet53(None) s原创 2021-01-27 15:49:22 · 9641 阅读 · 7 评论 -
pytorch | 填一填pytorch的坑
pytorch | 填一填pytorch的坑????1. model.train() 和 model.eval()模型中如果有 Batch Normalization 或 Dropout 层,测试时,需要加 model.eval()。主要因为在训练和测试时,Batch Normalization 和 Dropout 方法的操作不同导致的。模型训练前加model.train(),模型变成训练模式,启用 BatchNormalization 和 Dropout。在测试前加model.eval(),原创 2020-08-19 11:57:17 · 199 阅读 · 0 评论 -
pytorch
1pytorch 学习在学习深度学习框架之前,个人认为了解各个框架的输入才是一切的开始。因此,今天讨论下pytorch的数据输入。1PIL好多pytorch的测试代码都是用PIL读取图片而本人则比较喜欢opencv读取,那么先讨论PIL,cv2和torchvision.transforms的区别。from PIL import Imageimport numpy as npimage ...原创 2019-12-11 19:28:38 · 648 阅读 · 0 评论 -
ckpt-pb-onnx-trt
ckpt pb onnx trtckptpbonnxtrtbug思考ckpt这应该是ckpt转换成自己网络名称的操作import argparseimport tensorflow as tffrom core.yolov3 import YOLOV3from core.config import cfgparser = argparse.ArgumentParser()parser.add_argument("--train_from_coco", action='store_true'原创 2020-08-02 14:25:41 · 1339 阅读 · 1 评论 -
各类网络结构
各类网络结构注意力机制通道注意力空间注意力注意力机制总的来说, 注意力机制可分为两种:一种是软注意力(soft attention),另一种则是强注意力(hard attention)。软注意力(soft attention)与强注意力(hard attention)的不同之处在于:软注意力更关注区域或者通道 ,而且软注意力是确定性的注意力,学习完成后直接可以通过网络生成, 最关键的地方是软注意力是可微的 ,这是一个非常重要的地方。 可以微分的注意力就可以通过神经网络算出梯度并且前向传播和后向反馈来原创 2020-07-22 15:01:13 · 275 阅读 · 0 评论