
自编码器
文章平均质量分 71
一只瓜皮呀
分享图神经网络和小样本学习相关的论文阅读笔记、以及算法刷题纪律
展开
-
【阅读笔记】Distribution-induced Bidirectional Generative Adversarial Network for Graph Representation
图表示学习的目的是将一个图的所有节点编码成低维向量,作为许多计算视觉任务的输入。然而,现有的算法大多忽略了数据固有分布甚至噪声的存在。这可能会显著增加过拟合现象,降低测试精度。在本文中,我们提出了一种分布诱导的双向生成对抗网络(DBGAN),用于图表示学习。该算法采用结构感知的方法估计潜在表示的先验分布,而不是广泛使用的正态分布假设,通过原型学习隐式地连接图和特征空间。这样就为所有节点生成了有区别的鲁棒表示。此外,为了在保持表示能力的同时提高泛化能力,通过一个双向对抗学习框架很好地平衡了样本级和分布级的一致原创 2022-01-06 20:57:49 · 1275 阅读 · 0 评论 -
【阅读笔记】Few-Shot Unsupervised Image-to-Image Translation-ICCV-2019
无监督的图像到图像转换方法学习将给定类别中的图像映射到不同类别中的类似图像,利用非结构化(非注册)图像数据集。虽然非常成功,但当前的方法需要在训练时访问源类和目标类中的许多图像。我们认为这极大地限制了它们的使用。从人类从少量示例中提取新对象的本质并从那里进行概括的能力中汲取灵感,我们寻求一种少样本、无监督的图像到图像转换算法,该算法适用于以前看不见的目标类在测试时,仅由几个示例图像指定。我们的模型通过将对抗性训练方案与新颖的网络设计相结合来实现这种少量生成能力。通过广泛的实验验证和与基准数据集上的几种基线方原创 2022-01-06 20:35:49 · 1295 阅读 · 0 评论 -
对称图自编码器-Symmetric Graph Convolutional Autoencoder for Unsupervised Graph Representation Learning
我们提出了一种对称图卷积自动编码器,它可以从一个图生成一个低维的潜在表示。与现有的具有非对称解码器部分的图形自动编码器相比,本文提出的自动编码器具有一个新设计的解码器,该解码器构建了一个完全对称的自动编码器形式。对于节点特征的重构,编码器采用拉普拉斯平滑、解码器使用拉普拉斯锐化,使得所提出的自编码器体系结构的整个过程都可以利用图结构。为了防止引入拉普拉斯锐化引起的网络数值不稳定性,我们进一步提出了一种引入符号图的拉普拉斯锐化新的数值稳定形式。原创 2021-12-30 15:48:36 · 2461 阅读 · 0 评论 -
对抗正则化图自编码器-ARGA-ARVGA
对抗图自编码器原创 2021-12-30 15:34:14 · 2878 阅读 · 0 评论 -
变分图自编码器+代码解读
变分图自编码器原创 2021-12-28 10:38:26 · 2704 阅读 · 1 评论