TUDataset: A collection of benchmark datasets for learning with graphs

TUDataset 是一个包含120多个图形数据集的集合,涵盖了小分子、生物信息学、时间图等多个领域。小分子数据集用于药物发现等场景;生物信息学数据集如DD、ENZYMES 和 PROTEINS 用于蛋白质特性分析;时间图数据集则关注个体间的接触或相互作用,适用于传播过程的研究。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

TUDataset: A collection of benchmark datasets for learning with graphs
GitHub:https://github.com/chrsmrrs/tudataset

2.TUDATASET集合包含www.graphlearning.io上提供的120多个数据集。

2.1 Datasets

Small molecules. 小分子。一类常见的图形数据集由带有类别标签的小分子组成,代表例如药物发现项目中确定的毒性或生物活性。这里,一个图代表一个分子,即节点代表原子,边代表化学键。因此,标签编码原子和键的类型,可能有额外的化学属性。图形模型不同,例如,氢原子是否由节点明确表示,芳香环中的键被相应地注释。
Bioinformatics生物信息学。数据集DD, ENZYMES 以及PROTEINS代表大分子。Borgwardt等人(2005年)介绍了一种蛋白质的图形模型,其中节点代表二级结构元素,并由它们的类型,即螺旋、薄片或转弯,以及几个物理和化学信息来注释。如果两个节点是氨基酸序列的邻居或者是空间中三个最近的邻居之一,则一条边连接两个节点。使用这种方法,数据集酶来自BRENDA数据库(Schomburg等人,2004年)。在这里,任务是将酶分配到6个EC顶级类别之一,这反映了催化的化学反应。类似地,数据集蛋白质来源于(Dobson & Doig,2003),任务是预测蛋白质是否是酶。Shervashidze等人(2011年)使用的数据集DD基于相同的数据,但包含图形,其中节点表示单个氨基酸,边缘表示它们的空间邻近性。
temporal graphs最近,Oettershagen等人(2019)考虑了时间图,其中边缘表示两个个体在某个时间点的接触或相互作用。在研究传播过程时,例如流行病、谣言或假新闻的传播,这些图表很有意义。我们提供了从TUMBLR (Rozenshtein等人,2016)、DBLP和FACEBOOK (Viswanath等人,2009)以及麻省理工学院(Eagle & Pentland,2006)、一所高中的学生和传染病展览(Isella等人,2011)的参观者之间的联系中获得的时态图形分类数据集。

5.实验评估

数据集。我们使用了DEEZER_EGO_NETS、GITHUB _ STARGAZERS、ENYMES、IMDB-BINARY、IMDB-MULTI、MCF-7、MOLT-4、NCI1、PROTEINS、REDIT-BInary、REDDIT_THREADS、TWITCH_EGOS、UACC257图形分类数据集。此外,我们还使用了ALCHEMY、QM9、ZINC(多目标)回归数据集。数据集统计见网站和附录中的表4。我们选择不使用小数据集的连续节点特征(如果可用)和ALCHEMY数据集的3D坐标,只提供基于图形结构和离散标签的基线结果。在QM9数据集的情况下,我们紧密复制了Gilmer等人(2017)的(连续)节点和边缘特征。
在这里插入图片描述

### GLUE 基准及其在自然语言理解 (NLU) 多任务评估中的应用 #### 什么是 GLUE 基准? GLUE(General Language Understanding Evaluation)基准是一种用于评估自然语言处理模型语义理解能力的多任务框架[^1]。它由一系列 NLU 任务组成,旨在全面衡量模型的语言理解和泛化能力。 #### GLUE 的任务构成 GLUE 包含 9 个核心任务,这些任务均涉及单句或双句的理解问题,具体如下: - **MNLI**(Multi-Genre Natural Language Inference):跨多个领域判断句子之间的推理关系。 - **QQP**(Quora Question Pairs):检测 Quora 上的问题是否重复。 - **QNLI**(Question-NLI):通过自然语言推断回答给定问题。 - **RTE**(Recognizing Textual Entailment):识别文本蕴含关系。 - **STS-B**(Semantic Textual Similarity Benchmark):测量两个句子间的语义相似度。 - **MRPC**(Microsoft Research Paraphrase Corpus):判定两句话是否互为同义表达。 - **CoLA**(Corpus of Linguistic Acceptability):预测句子语法和语义接受程度。 - **SST-2**(Stanford Sentiment Treebank):分析电影评论的情感倾向。 - **WNLI**(Winograd NLI):解决代词消解问题。 上述任务涵盖了多种语言现象,包括但不限于逻辑推理、情感分析以及语义匹配等。 #### GLUE 在多任务学习中的作用 为了更好地支持多任务场景下的 NLP 模型开发,研究人员提出了基于 GLUE 的解决方案。例如,在一篇来自微软的研究论文中提到一种名为 MT-DNN(Multi-Task Deep Neural Networks)的方法,该方法能够有效提升单一模型在多项 NLU 任务上的综合表现[^2]。 此外,还有其他工作扩展了传统意义上的 GLUE 设计理念。比如 ASR-GLUE 将自动语音识别引入到标准 NLU 测试集中,进一步考察当输入存在不同程度噪音干扰时系统的鲁棒性表现[^4]。 #### 实际案例展示 以 BERT 和其变体为例说明如何利用 GLUE 数据集进行实验验证。下图展示了 SST-2 这一特定子任务上几种主流架构的表现情况对比图表显示即使面对加入随机扰动后的样本集合,“人类级”的基线仍然难以超越某些精心设计的人工智能算法。 ```python import matplotlib.pyplot as plt # Sample data representing accuracy across different noise levels. noise_levels = ['Clean', 'Low Noise', 'Medium Noise', 'High Noise'] human_performance = [0.87, 0.85, 0.83, 0.78] model_a_accuracy = [0.92, 0.88, 0.86, 0.80] plt.figure(figsize=(10, 6)) plt.plot(noise_levels, human_performance, label='Human Performance') plt.plot(noise_levels, model_a_accuracy, label="Model A's Accuracy", linestyle="--") plt.title('Accuracy Comparison Between Human and Model Under Various Noises on SST-2 Task') plt.xlabel('Noise Levels') plt.ylabel('Accuracy Score') plt.legend() plt.grid(True) plt.show() ``` 此代码片段绘制了一条折线图用来直观呈现随着环境复杂性的增加两者之间差距的变化趋势。 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值