- 博客(123)
- 收藏
- 关注

原创 elsarticle模板中通讯作者的标注问题及其解决
elsarticle模板在天通讯作者是会出现标注的作者及其后的作者都加上了*这个问题需要添加设置:”\makeatletter\def@author#1{\g@addto@macro\elsauthors{\normalsize%\def\baselinestretch{1}%\upshape\authorsep#1\unskip\textsuperscript{%\ifx@fnmar...
2019-06-21 14:37:43
6878
7

原创 LIBSVM中如何自定义核函数
自定义核函数使用-t 4参数时,可以使用自定义核函数,根据自定义核函数求出核矩阵,自定义核函数使用方法如下:比如线性核函数 是 K(u,v)=u’*v,设训练集是train_data,设训练集有150个样本 , 测试集是test_data,设测试集有120个样本,则训练集的核矩阵: ktrain = train_data*train_data’测试集的核矩阵: ktest = test_d...
2019-01-14 16:35:03
1483

翻译 Rademacher复杂度
核方法(Kernel method)通常需要选取可函数及其超参数的取值。重采样(如: K-fold cross validation 和 Bootstrap)可以处理这个问题,但是通常很耗时。全局Rademacher复杂度和局部Rademacher复杂度是两个测量假设空间复杂度的量。Rademacher复杂度在多标签学习里已经有一些成果,感兴趣的读者可以自行查阅这方面的文献。Rademacher...
2019-01-10 16:48:43
3676
原创 单张图像扩散模型(Single Image DIffusion Model)
去噪扩散模型(DDM)在图像生成、编辑和恢复方面带来了惊人的性能飞跃。然而,现有DDM使用非常大的数据集进行训练。在这里,介绍一个用于在单个图像上训练DDM的框架。SinDDM,通过使用多尺度扩散过程来学习训练图像的内部统计信息。为了驱动反向扩散过程,使用了一个完全卷积的轻量级去噪器,它取决于噪声水平和标度。SinDDM生成各种高质量的样本,并适用于广泛的任务,包括风格转移和哈尔monization。特别地,实验演示了使用预先训练的CLIP模型从单个图像进行文本引导生成。
2024-06-12 21:23:08
432
1
原创 复图神经网络(Complex Graph Neural Networks)
其难点在于图池化的设计,提出了镜像连接设计,并解决了两个关键问题:参数约简问题和复杂梯度反向传播问题。为了解决前一个问题,提出了平方奇异值池化(SSVP)的概念,并证明了SSVP的表示能力与具有非负权重的全连接层的表示能力完全等效。为了解决后一个问题,我们提供了一种可行的替代方法来求解复杂嵌入的奇异值,并提供了理论上的保证。最后,我们提出了一种混合的池化策略,其中一阶统计信息被用来丰富最后的低维表示。在基准测试上的实验证明了具有镜像连接层的复杂GNN的有效性。
2024-02-01 10:34:07
299
原创 Trust your Good Friends: Source-free Domain Adaptation by Reciprocal Neighborhood Clustering
域自适应(Domain adaptation, DA)是为了缓解源域和目标域之间的域迁移。大多数数据处理方法需要访问源数据,但这通常是不可能的(例如,由于数据隐私或知识产权)。在本文中,我们解决了具有挑战性的无源域自适应(SFDA)问题,其中源预训练模型在没有源数据的情况下适应目标域。本文的方法是基于这样一种观察,即目标数据可能与源域分类器不一致,但仍然形成清晰的聚类。
2023-09-16 20:35:10
232
原创 On Balancing Bias and Variance in Unsupervised Multi-Source-Free Domain Adaptation
由于隐私、存储和其他限制,机器学习中对无监督域适应技术的需求越来越大,这种技术不需要访问用于训练源模型集合的数据。现有的多无源域自适应(MSFDA)方法主要是利用源模型产生的伪标记数据来训练目标模型,这些方法主要是改进伪标记技术或提出新的训练目标。相反,本文的目的是分析MSFDA的基本限制。特别是,我们对结果目标模型的泛化误差提出了一个信息论界限,这说明了固有的偏差-方差权衡。
2023-09-15 22:33:40
229
原创 HMM-GDAN: Hybrid multi-view and multi-scale graph duplex-attention networks for drug response predic
具体来说,我们提出了混合多视图和多尺度图双关注网络(HMM-GDAN),其中既有多视图自注意机制,也有视图级注意机制设计了捕获视图互补信息的机制,并强调视图的互补性每个视图的重要性协同,丰富的多尺度特征的构建和集成进一步形成高级表示,以便更好地预测。针对多视图设计了双注意机制图学习,它利用视图之间的互补信息并捕获每个视图的重要性查看协作。实现端到端的多视图图学习方案中,我们提出了多视角和多尺度混合方案药物图双注意网络(HMM-GDAN)响应预测,它利用了有用的多视图。通过多尺度信息学习更好的表征融合。
2023-09-05 14:12:50
191
原创 Dual Adaptive Representation Alignment for Cross-domain Few-shot Learning
小样本学习的目的是通过学习基础知识,在有限的支持样本下识别新的查询。在此设置中,最近的进展假设基础知识和新查询样本分布在相同的域中,这对于实际应用通常是不可行的。
2023-09-05 13:11:55
241
原创 Implicit Graph Neural Networks: A Monotone Operator Viewpoint
Implicit graph neural networks (IGNNs) solve a fixed-point equilibrium equation using Picard iteration for representation learning.通常G的选择为:
2023-08-06 13:05:00
184
原创 Learning with Fantasy: Semantic-Aware Virtual Contrastive Constraint for Few-Shot Class-Incremental
Few-shot class-incremental learning (FSCIL) aims atlearning to classify new classes continually from limitedsamples without forgetting the old classes.However, in this work, we find that the CE loss is not ideal for the base session training as it suffer
2023-08-05 22:45:02
293
原创 Learning-Rate-Free Learning by D-Adaptation
这是worst-case optimal.的设置一般需要关于解的距离的知识。例如1: 设置学习率。
2023-07-31 09:47:33
385
原创 Few-Shot Learning with Visual Distribution Calibration and Cross-Modal Distribution Alignment
框架图:
2023-07-27 13:28:11
219
原创 Glocal Energy-based Learning for Few-Shot Open-Set Recognition
Few-Shot Open Recognition: Query部分open。
2023-07-25 07:55:29
273
原创 Hubs and Hyperspheres: Reducing Hubness and Improving Transductive Few-shot Learning with Hyperspher
超球面的一致分布:
2023-07-24 22:17:25
207
1
原创 Open-Set Likelihood Maximization for Few-Shot Learning
首先对模型进预训练OSLO的想法:模型的测试:对数似然目标:其中,转化为对数似然函数:使用隐变量:惩罚项:最优化如下目标:
2023-07-20 18:25:06
201
原创 GKEAL: Gaussian Kernel Embedded Analytic Learning for Few-shot Class Incremental Task
算法过程:高斯核嵌入:
2023-07-18 23:18:16
223
原创 Adaptive Graph Convolutional Subspace Clustering
基于图卷积算子的表示:根据增广拉格朗日方法得出:整个算法的步骤如下:
2023-07-17 17:26:43
250
原创 From Node Interaction to Hop Interaction: New Effective and Scalable Graph Learning Paradigm
首先,由于节点之间的相互作用,可扩展性限制了gnn在大规模工业环境中的广泛应用快速扩展的邻居会导致高计算量和内存的成本。其次,过度平滑问题限制了节点的识别能力,即不同类别的节点表示在多次节点交互后会收敛到不可区分。
2023-07-14 21:55:22
197
原创 Few-Shot Class-Incremental Learning via Class-Aware Bilateral Distillation
灾难性遗忘:
2023-07-13 09:24:38
417
原创 Prototype Completion for Few-Shot Learning
小样本学习的目的是用很少的例子来识别新类。基于预训练的方法有效地解决了通过预训练一个特征提取器,然后通过最近的基于质心的元学习对其进行微调 (pretraining + fine-tuning)。在本文中,1)我们找出原因,即在预训练的特征中在空间中,基本类已经形成了紧凑的集群,而新的类则以很大的差异作为群体传播,这意味着微调特征提取器意义不大;2)不再对特征提取器进行微调,而是着重于估计更具代表性的特征原型。因此,我们提出了一个新的基于原型完成的元学习框架。WordNet可以得到类的属性。
2023-07-10 23:44:01
229
原创 人工智能的研究方向
深度学习是当前最热门的AI研究领域之一。这个领域试图模拟人脑的工作方式,通过训练大量的数据,提取数据中的有价值信息,进行预测或决策。这个领域关注如何让机器在与环境交互的过程中,通过试错和优化策略,实现特定目标的最大化。NLP的应用广泛,包括翻译、情感分析、文本生成、信息检索、语音识别等。神经符号集成是一个新兴的研究领域,试图结合神经网络的学习能力和符号逻辑的解释能力。这个领域的目标是建立可解释、可信任的AI系统。生成模型是一个热门的研究方向,它的目标是让机器能够创造出新的、以前未曾见过的内容。
2023-07-09 21:18:36
243
原创 SEGA: Semantic Guided Attention on Visual Prototype for Few-Shot Learning
方法比较简单,利用语义改进prototype,能促进性提升。
2023-07-09 16:46:58
382
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人