
DL
菜菜2022
这个作者很懒,什么都没留下…
展开
-
【琐碎】一文教你如何安装spacy包,并且load加载词典,spacy.load(“en“),spacy.load(“en_core_web_sm)
踩了无数个坑!!!咱就说这个spacy咋就这么难装/加载词典,搞了几个小时才搞好,记录一下解决的步骤查了十几个博客,都是告诉小白我:1、 pip install spacy2、 python -m spacy download en#下载模型3、 就可以正常使用了import spacyspacy.load('en')如果您上面的方法可以成功安装并使用,下面就不用看了,如果上面的解决不了您的问题,请跟着小白继续看下去。然而现实是我跟着博客上说的做了,却显示找不到此模型(当时着急解决问题没原创 2022-03-30 22:21:14 · 9695 阅读 · 9 评论 -
【Pytorch】notebook显示行号
kaggle中notebook显示行号点击view,点击Toggle line numbers,即可在cell中看到每行代码的line numberdsw中notebook显示行号点击view,再点击Show Line Numbers,即可看到行号### Jupyter notebook中显示行号可以按照上图点击,也可以使用快捷键,shift+L...原创 2022-03-29 14:59:36 · 1446 阅读 · 0 评论 -
【Pytorch】torch.expand()函数解析
x = torch.Tensor([[1], [2]])print(x.size())print(x)y=x.expand(2,10) print(x.size())y.size()#输出torch.Size([2, 1])tensor([[1.], [2.]])torch.Size([2, 1])torch.Size([2, 10])尝试修改x的第一个元素,并打印查看效果x[0]=-1x#输出tensor([[-1.], [ 2.]])随原创 2022-03-29 14:27:51 · 3780 阅读 · 0 评论 -
【阅读源码】Transformer的FFN机制源码解读(dropout)
class PositionwiseFeedForward(nn.Module): "Implements FFN equation." def __init__(self, d_model, d_ff, dropout=0.1): super(PositionwiseFeedForward, self).__init__() self.w_1 = nn.Linear(d_model, d_ff)#剖析点1 self.w_2 = nn.Line原创 2022-03-26 18:17:53 · 5173 阅读 · 0 评论 -
【源码解读】Transformer的Scaled dot product部分详解
def attention(query, key, value, mask=None, dropout=None): # shape:query=key=value---->[batch_size,8,max_length,64] d_k = query.size(-1) # k的纬度交换后为:[batch_size,8,64,max_length] # scores的纬度为:[batch_size,8,max_length,max_length]原创 2022-03-26 17:34:52 · 2089 阅读 · 0 评论 -
【源码解读】Transformer的MultiHeadAttention部分代码解读
1 说明首先,先给出Transformer的MultiHeadAttention部分的pytorch版本的代码,然后再对于此部分的细节进行解析2 源码class MultiHeadedAttention(nn.Module): def __init__(self, h, d_model, dropout=0.1): "Take in model size and number of heads." super(MultiHeadedAttention, self原创 2022-03-26 16:37:33 · 3494 阅读 · 3 评论 -
【阅读源码】Transformer的mask机制-sequence_mask代码解读
import torchimport numpy as npimport matplotlib.pyplot as pltdef subsequent_mask(size): "Mask out subsequent positions." attn_shape = (1, size, size) print(attn_shape) print(np.ones(attn_shape)) subsequent_mask = np.triu(np.ones(attn原创 2022-03-26 14:19:10 · 1874 阅读 · 1 评论 -
【DL】Memory-Usage占满而GPU-Util为0%的问题
Pytorch已经可以自动回收我们不用的显存,类似于python的引用机制,当某一内存内的数据不再有任何变量引用时,这部分的内存便会被释放。但有一点需要注意,当我们有一部分显存不再使用的时候,这部分释放的显存通过Nvidia-smi命令是看不到的,举个例子:device = torch.device('cuda:0')# 定义两个tensordummy_tensor_4 = torch.randn(120, 3, 512, 512).float().to(device) # 120*3*512*51转载 2022-03-20 17:03:06 · 774 阅读 · 0 评论