六月组队学习总结-图神经网络

本文记录了一名管理学博士生从零开始学习深度学习的过程,通过Datawhale组织的学习资源,逐步掌握了图论、PyG库、消息传递范式、图神经网络、节点表征学习、图表示学习以及图预测任务。在实践中遇到并解决了GPU配置、面向对象编程等挑战,深化了对深度学习的理解。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

引言

作为一名管理学的博士生,过去仅仅是使用传统的数据挖掘方法来做相关研究,因为畏难情绪和单打独斗的现状,导致自己一直没有敢于踏入主流的深度学习研究中。因此,我非常感谢 Datawhale 组织提供的学习资料和学习环境,推动我走出了深入学习计算机前沿知识的第一步,让我发现深度学习没有难道让人不知所措,还是可以通过投入时间和精力、虚心请教认真实践去掌握的。

过去的收获

Task00:熟悉规则(1天)

作为一个小白,组队学习群里的很多专业术语对我来说都是全新的。笨鸟先飞,我首先自学了 Markdown 语法,并初步掌握了 Typora 的用法。然后注册了 GitHub,学会了使用 Git 来上传自己的文档。根据自己的一些 Python 基础,在 Anaconda 上配置了专门的学习环境。

Task01:简单图论与环境配置与PyG库(2天)

学习了图论相关知识,其中基础概念以前就学过,新的知识主要是异构网络等高级图的形式。比较困难的一点是 PyG 的配置,遇到了很多问题,包括 GPU 的调用(后来放弃,转用 CPU)等。最终在队员的答疑下成功解决。

Task02:消息传递范式(3天) 

学习消息传递范式,为了方便理解,自己还找到了随机游走等相关资料去学习。顺利运行了学习资料提供的代码,但一开始不是很理解每一条的意义。其中让我迷惑的就是面向对象的编程思想,和我之前学习的面向过程的编程思想存在冲突,这需要时间去转变。

Task03:基于图神经网络的节点表征学习(4天)

节点表征学习也就是常看到的 embedding,是很多任务的基础。在 Python 上实践了 GCN、GAT等模型在节点表征任务上的差别。这部分还学到了数据集的下载和管理方式。

Task04:数据完整存储与内存的数据集类+节点预测与边预测任务实践(4天)

学到了完整存储与内存的数据集类,这一点一开始也很迷惑,觉得数据不就应该存储在内存里吗。因为我之前使用 R 语言做研究,R语言基本上只能把数据读到内存中做处理,所以没有想到还可以有不读入内存的情况。实操了节点预测和边预测的任务。

Task05:超大图上的节点表征学习(4天)

阅读了超大图的论文,理解了其中聚类+分批处理的思想,成功在自己的电脑上运行了程序,花费了大概10小时。完成作业因为要分析不同参数的影响,又花了10小时。

Task06:基于图神经网络的图表示学习(4天)

学习了对图本身进行分类的方法,主要依赖于节点表征,然后使用卷积中的池化方法。

Task07:图预测任务实践(4天)

了解了分批载入数据的数据集类,与之前学的全部放入内存的数据集类不同,主要处理大规模数据。主要碰到的问题是自己的电脑设备不足,运行了整整两天竟然还没有结束。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值