自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(25)
  • 收藏
  • 关注

原创 Spot and Learn:A Maximum-Entropy Patch Sampler for Few-Shot Image Classification阅读笔记

因此我们应该在最终取胜时给与决定性的奖励,而游戏过程中的行棋或甚至局部获利都不应该给很大奖励(相比最终赢棋的奖励而言)或者甚至不给奖励,以免误导智能体。折扣因子 在分类任务中,如果第N个时间步之后分类正确,奖励函数通常Rn=1.否则为0. 此外,这些动作通常是从学习策略π中采样,即ai ~ πθ(a|s),其中策略由θ参数化,可以建模为神经网络。使得做出正确的分类的同时,最大化我们行为的多样性。如图所示,五个组件,特征提取器,动作上下文编码器,状态编码器,最大熵采样器,分类。,其中T表示最终时间步。

2024-08-19 21:23:37 762

原创 Large-Scale Few-Shot Learning: Knowledge Transfer With Class Hierarchy阅读笔记

因此,我们提出了一个新的FSL模型,通过利用源类和目标类共享的类层次结构来学习一个更可转移的特征嵌入模型。对于源域中包含1000个类的大规模FSL问题,出现了一个强基线,最先进的大规模FSL方法难以突破这一底线,为了克服这一挑战,我们提出了一种新的大规模FSL模型,通过对源类和目标类之间的语义关系进行编码的类层次结构来学习可迁移的视觉特征。义相似的类(包括源类和目标类)被分组,然后每个集群在树的上层形成一个父节点(即超类节点)(参见图2中的红框)。使用共享的CNN特征,预测每一层的超类。

2024-08-19 21:16:17 380

原创 Distribution Consistency Based Covariance Metric Networks for Few-Shot Learning阅读笔记

第二个模块由协方差度量层构建,在第一个模块的帮助下,通过计算每个类别的分布一致性来衡量查询样本与每个类别之间的关系。与卷积神经网络(cnn)中常用的一阶池(例如,max-pooling)不同,全局协方差池试图探索cnn中的二阶池(协方差池)。此外,我们基于局部协方差表示构造了协方差度量层,通过计算概念和查询样本分布的一致性来度量它们之间的关系。在协方差表示的基础上,我们进一步定义了一个新的深度协方差度量来衡量查询样本和新概念之间分布的一致性。,并验证它更适合表示超出一阶统计量的概念(例如,均值表示)。

2024-08-19 21:13:33 504

原创 Transductive Episodic-Wise Adaptive Metric for Few-Shot Learning阅读笔记

此后,由任务不可知模型生成的所有特征都适应于特定于任务的度量空间,其中来自同一类的样本更近,不同类的样本相距更远。对于源任务中的每个实例(xi, yi),我们从同一任务中随机选择另一个样本(xj, yj),并合成新的训练示例。我们的方法提出了一个基于情景的度量构建模块,将任务不确定的嵌入转换为特定于任务的度量空间,即情景适应。此外,为了缓解支持集的数据稀缺问题,构建一个更通用的任务自适应度量,我们遵循传导推理的范式,将查询集作为一个整体来进行预测,而不是一个一个地进行预测。技术,以提高嵌入模型的泛化能力。

2024-08-19 21:11:45 422

原创 每日一问:Future机制的原理

4. Future 对象可以通过调用 Future. result0方法获取异步计算的结果,或者调用 Future. exception()方法获取异常信息。它可以用来阻塞主线程,直到异步操作的结果返回为止。如果异步操作在主线程调用 Future.se()方法之前己经完成,那么调用 Future.set(方法会立即返回异步操作的结果;如果异步操作还没有完成,那么调用Future. get(方法会等待异步操作完成,并返回异步操作的结果)。3.异步执行引擎或线程池中的线程进行异步计算,直到计算完成。

2024-08-15 15:42:26 180

原创 每日一问:Redis主从复制的缺点

1. 一旦主节点出现故障,需要手动将一个从节点晋升为主节点,同时需要修改应用方的主节点地址, 还需要命令其他从节点去复制新的主节点,整个过程都需要人工干预。第一个问题是Redis的高可用问题,使用Redis Sentinel(哨兵)解决。第二、三个问题属于Redis的分布式问题。使用Redis集群解决。3.主节点的存储能力受到单机的限制。2.主节点的写能力受到单机的限制。

2024-08-14 20:35:20 301

原创 每日一问:Redis主从复制的工作流程

连接建立成功后从节点发送ping请求进行首次通信,主要是检测主从之间网络套接字是否可用、 主节点当前是否可接受处理命令。从节点(slave)发现新的主节点后,会尝试和主节点建立网络连接。主从复制连接正常通信后,主节点会把持有的数据全部发送给从节点。接下来主节点会持续地把写命令发送给从节点,保证主从数据一致性。如果主节点要求密码验证,从节点必须正确的密码才能通过验证。这一步只是保存主节点信息,保存主节点的ip和port。3.发送ping命令。

2024-08-14 20:10:01 168

原创 每日一问:Spring Bean的生命周期

在 Spring 框架中,Bean 的生命周期包括从创建到销毁的多个阶段。了解这些阶段有助于开发人员有效地管理和定制 Bean 的行为。

2024-08-14 12:03:44 574

原创 Boosting Few-Shot Visual Learning with Self-Supervision 阅读笔记

这一阶段的目标是让少镜头模型获得可转移的视觉分析能力,通常以学习表示的形式,在第二阶段中被动员起来。受到少镜头学习和自监督学习之间联系的启发,我们提出将这两种方法结合起来,以提高少镜头模型的迁移学习能力。对于原型网络和余弦分类器,余弦分类器在学习特征提取器的同时学习实际的基分类器,而原型网络仅仅依赖于类级平均。在这项工作中,我们利用这两个领域的互补性,并提出了一种通过自我监督来提高小样本学习的方法。图像旋转:将图像旋转0,90,180,270输入特征提取器F,构建一个新的分类器,预测图像旋转了多少度。

2024-08-13 23:13:55 394

原创 SimpleShot: Revisiting Nearest-Neighbor Classification for Few-Shot Learning 阅读笔记

本文探讨了这样一种可能性,即在不使用元学习方法,而仅使用最近邻分类器的情况下,能否很好地处理小样本学习问题。本文发现,对图像特征进行简单的特征转换,然后再进行最近邻分类,也可以产生很好的小样本学习结果。比如,使用DenseNet特征的最近邻分类器,在结合均值相减(mean subtraction)和L2归一化之后,其性能优于目前流行的更复杂的小样本学习方法。我们只考虑两个已经确定的、可能被认为是微不足道的特征转换,但根据经验,我们发现它们对SimpleShot少镜头学习器的准确性有积极的影响。

2024-08-13 23:11:22 391

原创 Task Agnostic Meta-Learning for Few-Shot Learning 阅读笔记

具体来说,我们提出了一种基于熵的方法,通过防止在分类任务中过度执行,元学习对输出标签具有最大不确定性的无偏初始模型。或者,对于更普遍的情况,通过直接最小化分类任务之外的初始损失的不等式,在任何可以定义合适损失的地方,提出了一种更通用的不等式最小化TAML。前一个任务需要计算熵,因此只能在有离散标签的任务中使用。我们的目标是训练一个模型,它可以是任务不可知的,以防止初始模型或学习者在特定任务上表现过度。,防止它在某些任务上表现过度,或直接最小化不同任务之间的表现不平等,以期使它更适用于未见的任务。

2024-08-13 23:10:06 505

原创 Variational Few-Shot Learning 阅读笔记

我们在支持和目标集的元素之间共享分布生成机制,然后将它们合并到特定于类的大型分布中。通过估计每个类的分布,我们可以直观地计算出目标点所属的每个类的置信度,并根据置信度进行分类。此外,我们的方法允许对模型进行完整的贝叶斯分析,并且与现有技术相比,它的可解释性明显更好。点估计非常好,但是有两个局限性:当有限的支持点在嵌入空间中分布不均匀时,很难估计这样一个特定的点。例如,基于原型的方法计算每个类的嵌入式支持示例的平均值,由于数据严重受限,这很容易受到噪声的影响。这一想法的动机是基于单点的度量学习方法固有的。

2024-08-13 23:08:19 246

原创 Dense Classification and Implanting for Few-Shot Learning 阅读笔记

首先,我们提出了一个简单的扩展,由特征图上的密集分类组成的少镜头学习管道。其次,我们引入了神经植入物,它是连接到已经训练好的网络上的层,使其能够快速适应很少示例的新任务。阶段2在supportset中训练,query进行测试,在这一阶段,为了更好的适应新的任务,固定阶段1的权重。我们的目标是从一个有丰富数据的集到另一个有很少可用示例的集的知识转移来解决小样本问题。2.即将新的神经元连接到先前训练的网络上,以学习新的、特定于任务的特征。:1.特征图上的密集分类,这是第一次研究少量学习领域的局部激活,

2024-08-13 23:06:02 351

原创 Infinite Mixture Prototypes for Few-Shot Learning 阅读笔记

σ是可微的,因此与嵌入参数φ共同学习。通过从数据中推断给定类的混合成分的数量,可以跨越从最近邻到原型表示的频谱。分类方面,区分标记和未标记的聚类,将标记的点纳入计算簇距离计算中。在端到端优化方面,我们软化了聚类分配,提出了一种选择λ的方案,并掩盖了分类损失以鼓励多模态。通过用相同的规则聚类标记和未标记的数据,无限混合原型实现了最先进的半监督精度,并且可以执行纯粹的无监督聚类,不像现有的全监督和半监督原型方法。原型方法,如高斯混合模型,通过其示例的平均值来表示一个类,是可以鲁棒拟合简单分布的低容量模型。

2024-08-13 23:03:48 480

原创 每日一问:sleep() 和 wait() 的区别

在 Java 中,sleep()和wait()是两种用于控制线程行为的方法,但它们的功能和用法有显著区别。了解这些差异有助于编写高效的多线程应用程序。是一个静态方法,用于将当前线程暂停执行一段指定的时间。

2024-08-13 23:01:32 408

原创 每日一问:接口和抽象类的区别

抽象类是一个包含抽象方法和具体方法的类。它允许定义类的一部分实现,并为子类提供通用行为。

2024-08-13 23:00:06 292

原创 每日一问:重载和重写的区别

在 Java 中,重载(Overloading)和重写(Overriding)是面向对象编程中的两个重要概念,它们都涉及到方法的使用,但在应用场景和实现细节上有显著的区别。

2024-08-13 22:59:04 167

原创 Few-Shot Learning with Global Class Representations阅读笔记

Ctotal由两个不相交的集组成:一组基类Cbase和一组新类Cnovel(≤5).首先使用原型网络的方法,获得每个类的初始质心。在本文中,我们提出了一种新的FSL方法,将每个类(基类或新类)表示为嵌入空间中的单个点。我们的注册模块将训练样本与所有训练班的全局表示进行比较,并选择相应的全局表示。通过在嵌入空间中将样本与Ctotal中所有类的全局表示进行比较,我们的注册模块使每个全局表示接近其类内的样本,并远离类外样本。Vi表示样本Xi和每一个类的全局表示的距离。将该样本的视觉特征和所有全局类表示。

2024-08-13 22:54:36 510

原创 每日一问:什么是ioc和Di

DI(依赖注入):指的是容器在实例化对象的时候把它依赖的类注入给它。有的说法 IOC 和 DI 是一 回事,有的说法是 IOC 是思想,DI 是 IOC 的实现。以前是我们想要 什么,就自己创建什么,现在是我们需要什么,容器就给我们送来什么。也就是说,控制对象生命周期的不再是引用它的对象,而是容器。对具体对象,以前是它控制其它对 象,现在所有对象都被容器控制,所以这就叫控制反转。Java 是面向对象的编程语言,一个个实例对象相互合作组成了业务逻辑,原来,我们都是在代码里创 建对象和对象的依赖。

2024-07-25 19:49:26 133

原创 Few-Shot Image Recognition by Predicting Parameters from Activations阅读笔记

X为输入的图像,经过神经网络得到特征向量a(x)激活值.。Wy为全连接层的一组权重,参数。一般情况下,Wy是通过不断的学习,梯度下降,更新之后得到的权重。另一方面,许多非参数方法,如最近邻方法,可以很容易地适应新的概念,而不会严重忘记原来的类。Ay = {a(x)|x ∈ Dlarge ∪ Dfew, Y (x) = y}因此,去进行小样本分类,我们希望Ay×Wy越大越好。因为同一类的图像的激活值在空间上聚集,所以,Wy的合理选择与Ay均值对齐。从激活值中预测参数来适应预先训练的神经网络,以适应新的类别。

2024-07-23 18:27:09 274

原创 Finding Task-Relevant Features for Few-Shot Learning by Category Traversal阅读笔记

然而,如果每个类的特征相似度是独立计算的,就像[38,35,36,34,21,30,23,10]中所做的那样,不可能知道哪个维度(颜色或形状)更相关,因此类别(i, iii, iv, v)基于距离1都有相同的分数。上图a,supportset 5个类别,query img 的距离和1345相同,颜色更接近于3.上图b,在k-shot (k > 1)情况下,一个类中的大多数实例共享蓝色属性,但它们的形状不同-使颜色特征更具代表性。在与支持集中的样本进行比较时,是一个类一个类的进行比较的,也就是。

2024-07-23 18:23:21 387

原创 Few-Shot Learning with Localization in Realistic Settings阅读笔记

而且这种划分方式还限制了参考图像的数量,因为对于常见类别或稀有类别,Prototypical Network支持集的每个类别样本的数量都是相同的,如果想增加支持集样本的数量,要么增加批尺寸(这将收到内存的限制),要么减少查询集的数量(这将给查询图像的梯度带来更多噪声)。实现批折叠:假设共有n个类别,每个类别包含p个样本,v i,j 表示第j 类中的第i个样本对应的特征向量,令 cj = ∑ i vi,j / p 为第j类的原型(Prototype)(先累加后平均),则在预测第j类中的第i 个样本的类别时。

2024-07-23 18:19:47 635

原创 Dynamic Few-Shot Visual Learning without Forgetting阅读笔记

新类类别样本少,学习的快慢取决于输入,因此两者之间点积出的数值大小规律可能完全不同,所以不能使用。从新类的少量样本中获得特征向量,并将获得的特征向量与原有的基类权重一起输入到权重生成器中获得用于新类的分类权重。论文目标:设计一个小样本学习系统,能够有效的从少量训练数据中学习新的类,同时。B:重新设计convnet模型的分类器,将其作为特征表示和分类权重向量之间的余弦相似函数。学习了基本类别的分类模块,可以识别基本类别。假设存在一个基本类,目的是识别基类,并且可以动态的对新类进行少量学习。

2024-07-23 18:16:00 216

原创 ∆-encoder: an effective sample synthesis method for few-shot object recognition论文阅读笔记

类似地,在计算机视觉领域,我们假设我们可以使用已知类的大量示例(实例)集(在一些潜在的语义空间中表示),以便学习从新类的分布中采样,这些新类只给我们一个或几个示例。最后,我们使用合成的样本来训练线性分类器(一个密集层,然后是softmax)。本文提出一种基于数据增强的小样本学习算法,利用一个自动编码器(Auto-Encoder,AE)用于寻找同类别不同样本之间的变形(deformations,本文称其为Δ \DeltaΔ),然后在利用其为其他的类别样本生成新样本,最后利用扩充后的数据集训练分类器。

2024-07-18 21:23:37 1031 2

原创 原型网络学习笔记

将support set数据集映射到一个度量空间中,对每个类别中的元素计算中心点,由中心点来代表这个类别。使用神经网络学习输入到嵌入空间的非线性映射,并将类的原型作为其在嵌入空间中的支持集的均值。主要解决过拟合问题。学习一个度量空间,分类可以通过计算到每个类的原型表示的距离来执行,分类器必须泛化到训练集中没有出现的新类。在supportset中取出一个类别中所有的样本,放入神经网络中,得到m维特征向量,将其累加起来,除所有样本的个数,得到一个平均向量。元学习的训练思想可以很好的把知识迁移到新颖的类。

2024-07-11 09:17:25 253

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除