- 博客(11)
- 资源 (1)
- 收藏
- 关注
原创 使用CSV文件建立PYG数据集,进行分子预测
使用自己的分子数据集(csv,sdf,mol2)来创建适用于PyG的任务。需要的第三方库rdkit, pytorch, pyg,在使用图神经网络进行任务是,我们有些仅仅使用轮子,所以要使用自己的数据集来预测某些指标。所以我们就需要用自己的数据集建立适合PyG的Dataset。PyG有两种方法建立数据集,一种是直接读到内存中去的InMemoryDataset,限制是你的内存大小,还有一种是建立比较大的数据集的Dataset。这次我主要向分享比较全能使用的Dataset。二.输出代码如下(示例):
2022-06-06 00:47:40
1387
2
转载 初学者:了解GPT
GPT什么是语言模型自编码(auto-enconde)语言模型自回归(auto-regressive)语言模型基于Transformer的语言模型Transformer进化GPT2概述GPT2详解输入编码多层DecoderDecoder中的Self-Attention详解Self-AttentionGPT2中的Self-AttentionGPT2全连接神经网络除了BERT以外,另一个预训练模型GPT也给NLP领域带来了不少轰动,本节也对GPT做一个详细的讲解
2021-09-19 14:52:05
4585
2
转载 初学者:了解BERT
BERT了解BERTBERT句子分类模型结构模型输出预训练任务:Mask Language Model与训练任务:相邻句子判断BERT的应用BERT特征提取上一节学了将Attention发扬光大的模型Transform,今天讲学习把Transform模型发扬光大的经典模型:BERT。BERT在2018年提出,BERT一出现就打破了多个自然语言处理任务的最好记录。BERT的论文发表不久,BERT团队就公开模型的代码,并且提供了基于大规模预训练的模型下载。BERT的模型代码和模型参
2021-09-17 21:21:36
617
转载 NLP中的Transform理解
Transform相关理论transform模型Transformer模型在2017年被google提出,直接基于Self-Attention结构,取代了之前NLP任务中常用的RNN神经网络结构,并在WMT2014 Englishto-German和WMT2014 English-to-French两个机器翻译任务上都取得了当时的SOTA。与RNN这类神经网络结构相比,Transformer一个巨大的优点是:模型在处理序列输入时,可以对整个序列输入进行并行计算,不需要按照时间步循环递归处理输入序列。
2021-09-15 20:20:45
2191
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人