自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(123)
  • 收藏
  • 关注

原创 elsarticle模板中通讯作者的标注问题及其解决

elsarticle模板在天通讯作者是会出现标注的作者及其后的作者都加上了*这个问题需要添加设置:”\makeatletter\def@author#1{\g@addto@macro\elsauthors{\normalsize%\def\baselinestretch{1}%\upshape\authorsep#1\unskip\textsuperscript{%\ifx@fnmar...

2019-06-21 14:37:43 6878 7

原创 LIBSVM中如何自定义核函数

自定义核函数使用-t 4参数时,可以使用自定义核函数,根据自定义核函数求出核矩阵,自定义核函数使用方法如下:比如线性核函数 是 K(u,v)=u’*v,设训练集是train_data,设训练集有150个样本 , 测试集是test_data,设测试集有120个样本,则训练集的核矩阵: ktrain = train_data*train_data’测试集的核矩阵: ktest = test_d...

2019-01-14 16:35:03 1483

翻译 Rademacher复杂度

核方法(Kernel method)通常需要选取可函数及其超参数的取值。重采样(如: K-fold cross validation 和 Bootstrap)可以处理这个问题,但是通常很耗时。全局Rademacher复杂度和局部Rademacher复杂度是两个测量假设空间复杂度的量。Rademacher复杂度在多标签学习里已经有一些成果,感兴趣的读者可以自行查阅这方面的文献。Rademacher...

2019-01-10 16:48:43 3676

原创 ACM MM 2025截止时间

准备投ACM MM 2025的朋友注意截止时间。

2025-03-14 15:36:10 1034

原创 NeurIPS 2025截稿时间

NeurIPS截稿时间,要投稿的朋友注意时间节点。

2025-03-11 09:07:20 610

原创 ICCV 2025投稿截止时间

以下是ICCV 2025投稿截止时间,要投的uu们抓紧时间!

2025-03-04 22:02:50 335

原创 CVPR 2025截稿时间一览

准备投CVPR 2025的朋友们,详细截稿时间如下:

2024-08-27 12:08:25 8456 2

原创 AAAI 2025截止时间一览

以下是AAAI 2025时间一览表,打算投稿的朋友不要错过哦。

2024-07-20 10:39:04 6920

原创 单张图像扩散模型(Single Image DIffusion Model)

去噪扩散模型(DDM)在图像生成、编辑和恢复方面带来了惊人的性能飞跃。然而,现有DDM使用非常大的数据集进行训练。在这里,介绍一个用于在单个图像上训练DDM的框架。SinDDM,通过使用多尺度扩散过程来学习训练图像的内部统计信息。为了驱动反向扩散过程,使用了一个完全卷积的轻量级去噪器,它取决于噪声水平和标度。SinDDM生成各种高质量的样本,并适用于广泛的任务,包括风格转移和哈尔monization。特别地,实验演示了使用预先训练的CLIP模型从单个图像进行文本引导生成。

2024-06-12 21:23:08 432 1

原创 Ubuntu如何配置有线网(只显示VPN和代理时)

将managed的值改为true。

2024-04-01 18:01:05 965

原创 复图神经网络(Complex Graph Neural Networks)

其难点在于图池化的设计,提出了镜像连接设计,并解决了两个关键问题:参数约简问题和复杂梯度反向传播问题。为了解决前一个问题,提出了平方奇异值池化(SSVP)的概念,并证明了SSVP的表示能力与具有非负权重的全连接层的表示能力完全等效。为了解决后一个问题,我们提供了一种可行的替代方法来求解复杂嵌入的奇异值,并提供了理论上的保证。最后,我们提出了一种混合的池化策略,其中一阶统计信息被用来丰富最后的低维表示。在基准测试上的实验证明了具有镜像连接层的复杂GNN的有效性。

2024-02-01 10:34:07 299

原创 ICML 2024截止时间一览表

2024-01-07 10:25:41 1957

原创 IJCAI 2024截止时间一览表

2024-01-06 22:57:27 2165

原创 Trust your Good Friends: Source-free Domain Adaptation by Reciprocal Neighborhood Clustering

域自适应(Domain adaptation, DA)是为了缓解源域和目标域之间的域迁移。大多数数据处理方法需要访问源数据,但这通常是不可能的(例如,由于数据隐私或知识产权)。在本文中,我们解决了具有挑战性的无源域自适应(SFDA)问题,其中源预训练模型在没有源数据的情况下适应目标域。本文的方法是基于这样一种观察,即目标数据可能与源域分类器不一致,但仍然形成清晰的聚类。

2023-09-16 20:35:10 232

原创 CVPR 2024 截稿时间

CVPR 2024 截稿时间为2023年11月10日,小伙伴们注意提前写好论文,及时投稿,祝大家都能高中!

2023-09-15 22:37:16 6858

原创 On Balancing Bias and Variance in Unsupervised Multi-Source-Free Domain Adaptation

由于隐私、存储和其他限制,机器学习中对无监督域适应技术的需求越来越大,这种技术不需要访问用于训练源模型集合的数据。现有的多无源域自适应(MSFDA)方法主要是利用源模型产生的伪标记数据来训练目标模型,这些方法主要是改进伪标记技术或提出新的训练目标。相反,本文的目的是分析MSFDA的基本限制。特别是,我们对结果目标模型的泛化误差提出了一个信息论界限,这说明了固有的偏差-方差权衡。

2023-09-15 22:33:40 229

原创 HMM-GDAN: Hybrid multi-view and multi-scale graph duplex-attention networks for drug response predic

具体来说,我们提出了混合多视图和多尺度图双关注网络(HMM-GDAN),其中既有多视图自注意机制,也有视图级注意机制设计了捕获视图互补信息的机制,并强调视图的互补性每个视图的重要性协同,丰富的多尺度特征的构建和集成进一步形成高级表示,以便更好地预测。针对多视图设计了双注意机制图学习,它利用视图之间的互补信息并捕获每个视图的重要性查看协作。实现端到端的多视图图学习方案中,我们提出了多视角和多尺度混合方案药物图双注意网络(HMM-GDAN)响应预测,它利用了有用的多视图。通过多尺度信息学习更好的表征融合。

2023-09-05 14:12:50 191

原创 Dual Adaptive Representation Alignment for Cross-domain Few-shot Learning

小样本学习的目的是通过学习基础知识,在有限的支持样本下识别新的查询。在此设置中,最近的进展假设基础知识和新查询样本分布在相同的域中,这对于实际应用通常是不可行的。

2023-09-05 13:11:55 241

原创 符号随机梯度下降算法SIGNSGD

考虑随机优化问题:符号随机梯度下降(SIGNSGD)算法:假设基础:收敛定理:

2023-08-19 22:17:56 324

原创 Implicit Graph Neural Networks: A Monotone Operator Viewpoint

Implicit graph neural networks (IGNNs) solve a fixed-point equilibrium equation using Picard iteration for representation learning.通常G的选择为:

2023-08-06 13:05:00 184

原创 Learning with Fantasy: Semantic-Aware Virtual Contrastive Constraint for Few-Shot Class-Incremental

Few-shot class-incremental learning (FSCIL) aims atlearning to classify new classes continually from limitedsamples without forgetting the old classes.However, in this work, we find that the CE loss is not ideal for the base session training as it suffer

2023-08-05 22:45:02 293

原创 Learning-Rate-Free Learning by D-Adaptation

这是worst-case optimal.的设置一般需要关于解的距离的知识。例如1: 设置学习率。

2023-07-31 09:47:33 385

原创 Improving Cross-Modal Retrieval with Set of Diverse Embeddings

框架图:

2023-07-28 23:58:45 381

原创 Few-Shot Learning with Visual Distribution Calibration and Cross-Modal Distribution Alignment

框架图:

2023-07-27 13:28:11 219

原创 Glocal Energy-based Learning for Few-Shot Open-Set Recognition

Few-Shot Open Recognition: Query部分open。

2023-07-25 07:55:29 273

原创 Hubs and Hyperspheres: Reducing Hubness and Improving Transductive Few-shot Learning with Hyperspher

超球面的一致分布:

2023-07-24 22:17:25 207 1

原创 对比学习常见损失函数

本文介绍常见的对比学习损失函数:

2023-07-20 18:33:03 260

原创 Open-Set Likelihood Maximization for Few-Shot Learning

首先对模型进预训练OSLO的想法:模型的测试:对数似然目标:其中,转化为对数似然函数:使用隐变量:惩罚项:最优化如下目标:

2023-07-20 18:25:06 201

原创 GKEAL: Gaussian Kernel Embedded Analytic Learning for Few-shot Class Incremental Task

算法过程:高斯核嵌入:

2023-07-18 23:18:16 223

原创 Adaptive Graph Convolutional Subspace Clustering

基于图卷积算子的表示:根据增广拉格朗日方法得出:整个算法的步骤如下:

2023-07-17 17:26:43 250

原创 From Node Interaction to Hop Interaction: New Effective and Scalable Graph Learning Paradigm

首先,由于节点之间的相互作用,可扩展性限制了gnn在大规模工业环境中的广泛应用快速扩展的邻居会导致高计算量和内存的成本。其次,过度平滑问题限制了节点的识别能力,即不同类别的节点表示在多次节点交互后会收敛到不可区分。

2023-07-14 21:55:22 197

原创 Few-Shot Class-Incremental Learning via Class-Aware Bilateral Distillation

灾难性遗忘:

2023-07-13 09:24:38 417

原创 Efficient Methods for Non-stationary Online Learning

假设:算法过程:Regret分析。

2023-07-12 09:53:22 241

原创 Prototype Completion for Few-Shot Learning

小样本学习的目的是用很少的例子来识别新类。基于预训练的方法有效地解决了通过预训练一个特征提取器,然后通过最近的基于质心的元学习对其进行微调 (pretraining + fine-tuning)。在本文中,1)我们找出原因,即在预训练的特征中在空间中,基本类已经形成了紧凑的集群,而新的类则以很大的差异作为群体传播,这意味着微调特征提取器意义不大;2)不再对特征提取器进行微调,而是着重于估计更具代表性的特征原型。因此,我们提出了一个新的基于原型完成的元学习框架。WordNet可以得到类的属性。

2023-07-10 23:44:01 229

原创 人工智能的研究方向

深度学习是当前最热门的AI研究领域之一。这个领域试图模拟人脑的工作方式,通过训练大量的数据,提取数据中的有价值信息,进行预测或决策。这个领域关注如何让机器在与环境交互的过程中,通过试错和优化策略,实现特定目标的最大化。NLP的应用广泛,包括翻译、情感分析、文本生成、信息检索、语音识别等。神经符号集成是一个新兴的研究领域,试图结合神经网络的学习能力和符号逻辑的解释能力。这个领域的目标是建立可解释、可信任的AI系统。生成模型是一个热门的研究方向,它的目标是让机器能够创造出新的、以前未曾见过的内容。

2023-07-09 21:18:36 243

原创 Python如何生成列正交矩阵?

下面的代码可以生成随机正交矩阵。

2023-07-09 19:18:41 491

原创 SEGA: Semantic Guided Attention on Visual Prototype for Few-Shot Learning

方法比较简单,利用语义改进prototype,能促进性提升。

2023-07-09 16:46:58 382

原创 基于层次最优传输的小样本学习

最优传输的数学模型如下:

2023-07-08 20:06:43 160

原创 Zero-Shot Node Classification

零样本节点分类(Zero-shot node classification)

2023-07-08 19:48:45 367

原创 FEW-SHOT CLASS INCREMENTAL LEARNING

在第t个session的时候优化。

2023-07-07 18:53:50 224

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除