- 博客(6)
- 收藏
- 关注
原创 各种下载链接
这一步是通过自注意力机制将feat_edges中的头实体和关系转化为了一个新的嵌入表示,使得它们可以更好地与其他实体和关系嵌入进行交互。,其得分计算方式为将embd_edges中的实体和关系嵌入按列方向拼接得到一个新的张量src_edges,形状为。接着,将feat_edges作为输入传给模型的Encoder层,得到新的张量embd_edges,形状为。对应于所有实体的得分,表示当前关系和头实体对应于各个尾实体的概率。,其中batch_size为数据批次大小,d_embd为实体和关系的嵌入维度。
2023-09-04 17:55:43
180
1
原创 pytorch搭建虚拟环境跑代码
进入刚才创建的环境,激活环境。会发现在命令行前面的括号里的base切换为我们刚才创建的PS2环境了。然后就可以在PS2这个环境下运行我们的代码啦。有的项目里面的README.md文件会直接告诉你怎么来配置环境,可以直接按照上面的步骤来就行了。查看环境是否创建成功,可以使用如下命令查看conda下你创建的所有虚拟环境。若需要安装python版本,可以继续使用如下命令安装python的对应版本。删除所创建的环境,必须先进入base环境下才能删除成功。
2023-09-04 15:39:43
297
1
原创 李沐-->卷积神经网络
卷积是我们学习深度学习最重要的概念之一,看一下卷积的基本知识。我们从一个很简单的例子出发:一个猫和狗的图片分类问题:假设我们用手机拍摄了一张1200万像素的彩色图片,则这张图片上会有3600万个元素。然后我们用一个100个大小的单隐藏层的MLP来训练,则这个模型会有36亿个元素,而这个数字远远多于世界上猫和狗的数量。那还不如直接记住所有的猫和狗咧。所以,当我们使用MLP来处理比较大的图片的时候,就会遇到这种问题,那我们改怎么解决这个问题呢?
2022-10-28 10:21:26
803
原创 李沐-->深度学习计算
例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,下面案例可供参考将输入数据作为其前向传播函数的参数。通过前向传播函数来生成输出计算其输出关于输入的梯度,可通过反向传播函数进行访问。(这通常会自动发生)存储和访问前向传播计算所需的参数。根据需要初始化模型参数。class MLP(nn . Module) : # 用模型参数声明层。这里,我们声明两个全连接的层。
2022-10-21 09:33:15
803
原创 多层感知机
我们可以通过在网络中加入一个或多个隐藏层来克服线性模型的限制, 使其能处理更普遍的函数关系类型。例如:最简单的方法是将许多全连接层堆叠在一起。每一层都输出到上面的层,直到生成最后的输出。我们可以把前L-1层看作表示,把最后一层看作线性预测器。这种架构通常称为多层感知机(multilayer perceptron),通常缩写为MLP。
2022-10-20 15:29:13
513
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人