自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

ZG

  • 博客(91)
  • 收藏
  • 关注

原创 字节刷题, 时尚圈衣着问题

你的任务是帮助小U判断,在第几天学生们的穿着会达到稳定状态——即某一天后,所有学生的穿着不再发生任何变化。同时,你还需要计算在稳定后,有多少学生的校服颜色与其相邻的同学不同,这些学生被称为“时尚达人”。遍历data,检查需要换衣的人数,如果为0,则不需要换,退出遍历,如果为全部,则永远无法满足,返回-1。每一天,如果某个学生发现自己和相邻的两位学生穿着相同颜色的校服,那么他会在第二天更换成另一种颜色的校服;每位学生都穿着白色或黑色的校服,白色用。小U在时尚圈组织了一场“校服日”活动,有。

2024-12-20 10:59:49 302

原创 字节青训营,最大乘积区间问题,java

小R想从这个数组中选取一段连续的区间,得到可能的最大乘积。你需要帮助小R找到最大乘积的区间,并输出这个区间的起始位置。如果存在多个区间乘积相同的情况,优先选择。),数组中的元素分别来自集合。注意:数组的起始位置为。小R手上有一个长度为。

2024-12-19 09:01:10 174

原创 字节青训营,叠盘子排序

小M有一个独特的方式来收拾家中的盘子。每次用餐后,他会将盘子按照他们的序号顺序叠放。盘子的序号都是唯一的整数,并且在收拾前就是递增的。小M的叠放规则是,每一堆盘子的序号都是连续递增的,并且至少包含3个盘子。需要编写程序帮助小M确定盘子的叠放方式。例如,输入的盘子序号是,按照小M的规则,连续递增序列-3, -2, -1可以叠在一起表示为-3--1,而18, 19, 20可以叠在一起表示为18-20。不满足连续递增至少3个的,如都应单独列出。

2024-12-17 10:46:29 116

原创 多视图混合注意对比学习

它的主要思想是将语义相似(正)的数据对与不相似(负)的数据对进行对比,以学习表征,使正数据对更接近,并将负数据对分开,这在计算机视觉和自然语言处理等领域显示出高性能。MMACL(多视角混合注意对比学习)混合(1)从一般图结构导出的节点之间的成对关系和(2)从超图结构导出的高阶关系。有了同一个超图的两个视图,每个视图都来自不同的注意层,对比学习将两个视图中的相同节点视为正对,而将所有其他节点视为负对。,其中W1是可学习的参数矩阵,u是可训练的权重向量,S作为相似性函数,采用了the Scaled。

2024-08-09 15:35:10 980

原创 【无标题】

结合NN参数化架构,本文最终提出了ED-HNN,ED-HNN是一种排列等变且能够处理连续超边扩散的神经网络模型,它利用了双分部图表示和标准的消息传递神经网络架构,并通过层叠架构和共享参数来构建模型。本文设计了一种新颖的HNN架构,该架构具有可证明的表达性,可以在保持计算效率的同时近似一类超图扩散。对于超图扩散,在传统方法中,需要手动设计势函数来模拟和表示超图中的高阶关系。对于这样的势函数,作者进一步展示了它们诱导的扩散算子必须是排列等变的,这保证了在节点排列变化时,扩散过程能够以一种一致的方式响应。

2024-05-18 22:12:20 1096

原创 基于图扩散嵌入网络的数据表示与学习 笔记

SMLD通过一系列递增的高斯噪声扰动原始的数据分布,然后在逆过程中学习数据分布的梯度,通过最小化分数匹配(Score Matching)的损失函数,优化生成模型的参数,并使用朗之万动力学(Langevin Dynamics)采样生成样本。1、自回归生成(Autoregressive Generation):自回归生成模型将图的生成过程建模为一个递归的条件概率分布,每个节点和边的生成都依赖于之前生成的节点和边。但是传统的生成模型对节点的顺序是敏感的,不同的排列会导致不同的生成结果。

2024-05-15 21:10:59 895

原创 文本分类的深度注意图扩散网络 笔记

需要注意的是,我们的模型可直接用于归纳学习任务,对于未见过的测试文档,相应构建的图可直接输入训练好的模型进行预测。然而,现有的基于GNN的文本分类方法通常只考虑单跳邻域和文本中的低频信息,无法充分利用文档的丰富上下文信息。:为了克服上述限制,提出了DADGNN模型,该模型使用注意力扩散技术扩大每个词的感受野,并解耦GNNs的传播和转换过程以训练更深层的网络。为了衡量图中每个节点的不同作用,与使用一般池化的基于图的文本分类模型相比,采用了节点级关注机制。这样构造的图的优点是图是有向的,其转移矩阵就是对称的,

2024-05-13 17:29:59 903

原创 KAN 笔记

让机器学习每个特定神经元的最佳激活,而不是由人类决定使用什么激活函数,对于搞模型的来说就是把就是MLP把权重换成了样条函数。,数学上的东西不太懂捏。

2024-05-12 15:16:55 805

原创 图形网络的自适应扩散 笔记

先前模型无法实现这一目标的障碍在于,考虑到随着参数数量的增加,时间复杂度呈指数增长,对每个特征通道和GNN层的传播函数分别进行手动调整或网格搜索是不可行的挑战。同时,验证和测试精度急剧下降,因为t趋于零(更多的epoch) -表示每个节点只能使用自己的特征来预测标签, 也就是说,直接在训练集上学习t会导致过拟合。,对于每个图数据集,需要手动网格搜索步骤来确定与邻域半径相关的参数t,此外,对于每个数据集中的所有特征通道和传播层,t是固定的。如果按上面的方法,每次更新t时,需要使w收敛到最优值,这就太贵了。

2024-05-09 10:33:34 1059

原创 用于图生成的自回归扩散模型 笔记

都以独立概率α(t)衰变为吸收态(数据的一个维度或一旦数据进入吸收态,它就不会再对后续的扩散过程产生影响,相当于在这个维度上的信息已经被“吸收”或“丢失”了)吸收状态可以是文本的[MASK]标记或图像的灰度像素。从目标分布生成图形是许多领域的基本问题,传统随机图模型方法用强大的深度生成模型拟合图形数据,包括变分自编码器(VAEs) 、生成对抗网络、归一化流(Madhawa等人,2019)和基于能量的模型(EBMs) ,这些模型捕获复杂的图结构模式,然后生成具有所需属性的新的高保真图。中采样节点衰减排序σ。

2024-05-06 22:49:37 1625

原创 Fast Bilateral Filteringfor the Display of High-Dynamic-Range Images

高动态范围图像(High-Dynamic Range,简称HDR),相比普通的图像,可以提供更多的动态范围和图像细节,根据不同的曝光时间的LDR(Low-Dynamic Range)图像,利用每个曝光时间相对应最佳细节的LDR图像来合成最终HDR图像,能够更好的反映人真实环境中的视觉效果。最简单的方法是线性隐射,先算出离散数据的最大值和最小值,然后将数据线性的拉升至0到255之间,这种直接的操作往往无法得到满意的效果,会导致大量细节丢失,表现在视觉上就是一大块黑色或者一大块白色的。

2024-04-30 22:44:00 781

原创 简化图卷积 笔记

是输入特征,W是一个需要学习的权重矩阵。这种方法的优点是计算效率高,因为所有层的操作可以预先计算并存储为一个矩阵。此外,由于省略了非线性激活函数,SGC的训练过程也更稳定。然而,这也意味着SGC可能无法捕捉到一些复杂的非线性模式。本文的目的是把非线性的GCN转化成一个简单的线性模型SGC,通过反复消除GCN层之间的非线性并将得到的函数折叠成一个线性变换来减少GCNs的额外复杂度。是第l层的权重,σ是非线性激活函数。其中,A是邻接矩阵,D是度矩阵,是第l层的隐藏状态,

2024-04-23 20:15:07 830

原创 扩散卷积模型 笔记

Diffusion Convolutional Neural Networks(James Atwood and Don Towsley)【NeurIPS 2016】 This paper presents diffusion-convolutional neural networks (DCNNs), a new model forgraph-structured data. Through the introduction of a diffusion-convolution opera

2024-04-21 15:19:51 713

原创 GDC 笔记

这是因为在实际情况中,基于PPR和热核的方法在真实世界的图上都表现出很强的局部化特性,因此特征值的变化经验上不会随着节点数N而扩大。该矩阵定义了一个加权有向图,本文旨在增强模型应用于该图,加权边有助于GDC的应用,但GDC也可以用于仅支持未加权边的模型,如度校正随机块模型(DCSBM),也可以通过。,不把k相加,也会发生这种情况,这是因为现实生活中的“four/six degrees of separation”,即大部分节点之间存在着较短的路径,这通常导致S中的值的影响高度局部化。

2024-04-18 16:39:40 1207

原创 用于半监督的图扩散网络 笔记

如果图结构的拉普拉斯矩阵捕获了成对顶点的相似性,即,图满足同向性原理,则幂迭代将使聚类分离,并且所提供的标签信息将加速该过程。也就是说当 k 很大时,GCN 模型会倾向于收敛到矩阵 W 的主要特征向量,而忽略了输入特征矩阵 X 和参数矩阵 Θ 的影响,从而导致模型性能下降。,本文建议将这些矩阵中包含的所有局部和全局邻域信息聚合在一个层中,用于稀疏标记图上的半监督分类。,这个公式是K局部化的,即,它仅依赖于与中心顶点相距最大K跳距离的顶点(K阶邻域),其时间复杂度为O(e),e是图的边数。

2024-04-16 20:15:55 1030

原创 ADAPTIVE GRAPH DIFFUSION NETWORKS(自适应图扩散网络) 笔记

虽然GDC控制最终扩散矩阵的稀疏性,但中间显式的高次幂转移矩阵仍被保持,这限制了它的可扩展性。此外,加权系数是预定义的,并且对于所有节点、通道和层都是相同的,这可能会限制模型性能。然后,图扩散用扩散矩阵代替转移矩阵,该扩散矩阵是转移矩阵的幂与沿跳标准化的加权系数的线性组合。Implicit diffusion matrix: Graph Diffusion Networks:图扩散网络(gdn)执行隐式图扩散,从每层中的节点特征或表示矩阵开始进行从右到左的矩阵乘法。HA引入了逐跳和逐节点的加权系数。

2024-04-15 14:16:26 1314

原创 马可洛夫图扩散(MARKOVGNN) 笔记

如图所示的例子中,GNN有三层,马尔可夫过程在四次迭代中收敛因此,GNN的第1、2和3层分别使用M1、M3和M5。M1是表示给定图形的输入随机矩阵,M5是具有四个已发现社区的收敛矩阵,M2、M3和M4是捕捉社区形成的中间矩阵。b图显示了基于扩散模型添加了一个新边{𝑣1,𝑣4}并删除了一个现有边{𝑣3,𝑣5}的修改后的图(捕捉原始图中的群落结构)。图扩散可以作为一个去噪滤波器,类似于图像上的高斯滤波器,然而,GDC创建扩散矩阵作为预处理步骤,并在GNN的每一层中使用相同的扩散矩阵。是前一次迭代的输出。

2024-04-14 16:10:39 1218

原创 异构超图嵌入的图分类 笔记

之后在这些简单图上构造超图,然后将它们分解成多个超图快照,再然后使用开发的超图小波神经网络(HWNN)来学习每个快照中的节点嵌入,然后将这些快照聚合为用于下游分类的综合表示。与顶点域中的方法相比,这种谱方法不需要考虑超图中复杂的消息传递模式,并且还可以执行局部卷积,小波基比傅立叶基稀疏得多,它可以通过多项式有效地近似而无需拉普拉斯分解。在许多现实世界的场景中,对象之间的关系不是二元的(成对的),而是三元的、四元的或更高级的。这里V𝑒和E𝑒分别是V和E的子集,超图快照是根据超边类型生成的,这意味着。

2024-04-11 16:18:24 1500

原创 HNHN 笔记

HNHN是一个超图卷积网络,具有应用于超节点和超边的非线性激活函数,并结合了一个归一化方案,可以根据数据集灵活调整高基数超边和高度顶点的重要性。,当α>0时,超边的贡献增加,而如果α<0,则超边的贡献减少。星展开的缺点是它对超节点和超边都一样,但是实际场景了超节点和超边往往是不同的,所以应该有不同的权重。团展开的缺点是涉及信息的丢失-即在相同的顶点集上可能有两个不同的具有相同团扩展的超图。图形卷积中的归一化是必需的,因为训练过程需要维持稳定性。σ是非线性激活函数,W是权重矩阵,b是偏差矩阵。

2024-04-10 20:27:47 1094

原创 序列超图的下一项推荐 笔记

使用集合U来表示N个用户,集合I来表示P个items,集合Q来表示不同的时间戳T,每个t相当于一段period,对于每个用户,按照时间顺序对用户u与之交互的项目列表进行排序,比如。开始,其中每一个都是与项目ID相关联的可训练嵌入,但是对于不同用户在不同时间戳不变,下一个项目推荐的目标是预测𝑢在。表示在tn时刻之前的第i个item来自最近的超图的动态嵌入,如果之前i没有出现过,那么。内发生的所有用户-项目交互而构建,V属于I,是节点集,代表时间段内的交互items,表示初始层与第1层之间的可训练权矩阵。

2024-04-06 22:10:33 871

原创 LightHGNN+ 笔记

因此,本文提出了LightHGNN和LightHGNN+弥合HGNN和推理高效的多层感知器(mlp)之间的差距,以消除HGNN的超图依赖,从而降低计算复杂度并提高推理速度。LightHGNN通过软标签直接将教师hgnn中的知识提取到学生mlp中,并且LightHGNN+进一步明确地将可靠的高阶相关性注入到学生mlp中,以实现拓扑感知蒸馏和抗过度平滑。上的预测分布之间的距离。ightHGNN,它直接将HGNNs的知识提取到MLPs,MLPs是学生网络,训练良好的HGNNs作为教师网络,并使用交叉熵损失。

2024-04-05 16:41:49 737

原创 用于推荐系统的自监督超图Transformer 笔记

Self-Supervised Hypergraph Transformer for Recommender Systems(Lianghao Xia, Chao Huang, Chuxu Zhang)【KDD 2022】 User behavior data in many practical recommendation scenarios is often noisy and exhibits skewed distribution, which may result in subopt

2024-04-05 11:42:42 1067

原创 基于会话推荐的自监督超图卷积网络 笔记

本文提出一种双通道超图推荐系统的应用。

2024-04-02 12:20:54 1120

原创 通过Hypergraph transformers学习特征 笔记

除了传统的GNN模型,HyperFormer中的每一层都使用两个不同的超图引导的消息传递函数来学习表征,同时捕获高阶实例关联和特征关联。具体来说,首先从特征嵌入表F中查找初始化超边表示,并通过连接其所有特征表示来计算每个实例的初始节点表示。代表 Transformer-like的注意力机制,TF𝑒𝑑𝑔𝑒是将超边的信息聚合到节点的消息传递函数,TF𝑛𝑜𝑑𝑒是将节点的信息聚合到超边的消息传递函数。,首先应用特征到实例(边到节点)的消息传递来学习节点𝑣的下一层表示。是特征到实例转换器的键的投影矩阵。

2024-03-31 15:32:12 878

原创 Diffuison在域自适应中 笔记

本文提出了一种基于即插即用扩散的目标采样器(DTS)来生成高保真度和多样性的伪目标样本来解决无监督域适应(UDA)中大型域偏移和目标域中的样本稀缺的问题。这样,可以用伪目标样本来增强目标样本,从而提高UDA模型的性能。DTS将生成的目标样本和原始源样本组合为增广源域,其中使用原始源样本来抑制生成目标样本的噪声标签的影响。如图所示,整个DTS框架分为以上三个步骤,步骤1:通过一些UDA方法获得分类器,步骤2:由步骤1中预训练的分类器分配目标样本的伪标签,并使用具有伪标签的目标样本来训练CDPM。

2024-03-25 16:40:16 1119 1

原创 目标检测上的diffusion

因此,本文将整个模型分成两部分,图像编码器和检测解码器,其中前者只运行一次以从原始输入图像 x 中提取深度特征表示,后者以此深度特征为条件,而不是原始图像,以逐步细化来自嘈杂框 zt 的框预测(这个想法跟latent diffusion 差不多,不过latent diffusion使用vae来提取特征)。一旦模型被训练好了,它就可以用于在推理中改变方框的数量和样本步骤的数量,如图所示。因此,可以在多个场景中部署一个扩散网络,并在不需要再训练网络的情况下获得一个期望的速度-精度的权衡。

2024-03-24 20:28:18 803

原创 T2I diffusion模型是零样本分类器笔记

【2023】

2024-03-24 12:11:08 1095

原创 扩散模型零样本分类应用笔记

也就是在大规模Text2Img任务中density estimation 这件事情几乎等价于 zero-shot classification without training,于是作者们将这一分类机制单独提炼出来,形成了 Diffusion Classifier 模型,并展示了这一模型有着很强的 multi-modal reasoning 的能力,它可以从含分类的 diffusion models 中提取出标准的分类器。具体推导过程请看论文,这里不多赘述。

2024-03-22 21:57:21 1098

原创 用于组推荐的超图卷积网络笔记

;;

2024-03-20 21:21:36 1145

原创 A-Z Medicine Dataset of India数据集

这是一个印度药组成的数据集,最近的数据来自2022年11月。其内容包括:id,名字,出厂方,是否已停用,价格,类型,pack_size_label,以及两个药品成分描述九个属性,共计249398个不同的药物。值得一提的是基本都是对抗治疗性的药物。链接:https://pan.baidu.com/s/19bVgZ7gDn8Jz0rgK_BluvA。

2024-03-17 16:20:08 361

原创 超图音乐推荐模型笔记

在音乐推荐系统中,超图的点集被由以下这些内容组成:歌曲S,用户U,艺术家A,版本R,标签T。而边集根据点与点之间的关系,包含以下内容:收听(用户与歌曲)、专辑(版本与歌曲)、唱片(艺术家和歌曲)、主题(标签和歌曲)。这个多阶段框架非常灵活,可以通过更改嵌入生成模块轻松改进,不仅可以用于推荐,还可以用于不同的应用,正好是我需要的。2、嵌入生成:随机游走和顶点嵌入是从超图数据模型生成的。3、推荐生产:为每个用户生成一首 top-K 歌曲推荐。1、超图数据建模:数据在基于超图的结构中建模和存储。

2024-03-10 19:36:24 966

原创 DRC:扩散模型的推荐系统应用

与图像生成任务不同,为保证用户的个性化信息,DRM在训练时并没有将用户交互破坏为纯噪声,并且在训练和推断时均减少了前向过程中添加的噪声。本文提出了一种扩散推荐模型,以及它的两个扩展,用latent space的L-DiffuRec和引入了时间戳的T-DiffuRec。值得注意的是与原始diffusion不同,本文设计了一个新的noise schedule,不过与原始相同,前向过程是没有参数的。(2) 反向过程中模型逐步去噪并恢复原始信息。(1) 前向过程加入高斯噪声逐步破坏交互信息。

2024-03-09 15:18:02 1292

原创 DiffuRec扩散推荐模型笔记

DiffuRec模型结构如图所示,主要包括三个部分:1)逼近器(Approximator);2)前向扩散过程(Diffusion Phase);3)后向逆扩散过程(Reversion Phase)。针对传统推荐算法存在的表征能力有限、不确定性等挑战,本文提出一种利用扩散模型进行序列推荐的工作,该工作能够实现高质量、多样性的推荐效果。商品多维潜在表征建模、用户多兴趣表征建模、推荐的不确定性、推荐的不确定性等方面存在缺陷。

2024-03-07 14:11:45 1537

原创 Hierarchical Text-ConditionalImage Generation with CLIP Latents笔记

首先要提的就是CLIP具有打破预定义好的标签的能力,也就是zero-shot,它的标签很灵活,两个标签就是二分类任务,十个就是十分类,不需要预定义任务是分几个类。在使用引导的时候,与glide相比,unclip不会导致坍缩问题(也就是随着引导条件的增多,绘制出的图多样性越来越少,基本都一样了最后)。但是clip也有它的问题,就是在多目标属性绑定上容易造成混淆,unclip在这方面做的更差,属性绑定问题更严重。本文将将zero-shot和扩散模型两种方法结合起来,用于文本条件下的图像生成问题。

2024-03-04 15:10:27 1034

原创 T2I:zero shot笔记

训练一个离散变分自编码器(dVAE,将每个256×256 RGB图像压缩成一个32 × 32的图像标记网格,其中每个元素可以假设8192个可能值,这将Transformer的上下文大小减少了192倍,而视觉质量没有大的下降。这一步骤对应于训练dVAE。本文的目的是训练一个Transformer,它能够将文本和图像tokens自回归建模成单独的数据流,但是直接用像素当做图像tokens的话需要较高的内存,而似然目标则优先考虑像素之间的短程关依赖关系建模。本文通过使用两阶段训练程序来解决这些问题。

2024-03-01 10:57:02 863

原创 无视频文本对数据训练文本到视频模型笔记

Make-a-Video是基于无监督学习在无标记的视频数据上学习真实的运动的文本到视频生成方法,Make-A-video 有三个优点:(1) 它加快了 T2V 模型的训练过程(无需从头学习视觉和多模态表示);如图,给定输入文字 x,由先验 P 翻译成图片嵌入,并指定所需的帧速率,解码器 Dt 生成 16 个 64 × 64 帧,通过 ↑F 插值成高帧率,通过 SR 将分辨率提高到 256 × 256,通过 SRh 将分辨率提高到 768 × 768,从而生成高时空分辨率的视频 y。

2024-02-18 11:31:39 1205

原创 Attention Is All You Need(Transformer模型)

Transformer是一个利用注意力机制来提高模型训练速度的模型。完全基于自注意力机制的一个深度学习模型,因为它适用于并行化计算,和它本身模型的复杂程度导致它在精度和性能上都要高于之前流行的RNN循环神经网络。

2024-02-15 11:31:06 1018

原创 GLIDE:使用文本引导扩散模型实现图像生成和编辑

使用Dhariwal&Nichol(2021)的ImageNet 64×64模型相同的模型架构,但将模型宽度扩展到512个通道,从而为模型的视觉部分产生大约23亿个参数。Training:以64×64的分辨率训练了一个35亿参数的文本条件扩散模型,并训练了另一个15亿参数的文本条件的上采样扩散模型,以将分辨率提高到256×256。在零样本图像生成方面,本模型不能匹配很复杂的文本提示,因此,除了零样本生成之外,该模型还具备编辑功能,这允许人类迭代地改进模型样本,直到它们匹配更复杂的提示。

2024-02-13 19:36:17 1560

原创 CogView:通过Transformers完成文本到图像的生成

如图3所示,四个分隔符token,[ROI 1](图像的参考文本)、[BASE]、[BOI1](图像开头),[EOI1](图像的结尾)被添加到每个序列中以指示文本和图像的边界。本文并预训练了一个具有40亿个参数的Transformer,并且提出Precision Bottleneck Relaxation和Sandwich Layernorm解决了数据异构性导致的不稳定问题,并且本文的transformer是开源的。image tokenizer是一个离散的自动编码器,类似于VQ-VAE的第一阶段。

2024-02-03 16:41:28 1174

原创 Photorealistic Text-to-Image Diffusion Modelswith Deep Language Understanding

Classifier-free guidance则是它的替代技术,通过在训练期间随机丢弃c(例如,以10%的概率)来联合训练条件和无条件目标的单扩散模型,从而避免这种预训练模型。1.发现使用纯文本数据训练的frozen language model 在text to image 任务上比一些多模态数据训练的模型来说是更好用的文本编码器,并且在提高样本质量方面,缩放这个编码器的大小比缩放扩散模型的大小更有效。4.介绍了一个新的全面的和具有挑战性的文本到图像任务的评估基准DrawBench。

2024-02-03 15:45:13 1014

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除