
综述
文章平均质量分 81
EDPJ,公众号(EDPJ)
这个作者很懒,什么都没留下…
展开
-
(2024,示例记忆,模型记忆,遗忘,差分评估,概率评估)深度学习中的记忆:综述
深度神经网络(DNNs)驱动的深度学习(DL)已经在各个领域引发了革命性变化,但理解 DNN 决策和学习过程的复杂性仍然是一个重大挑战。最近的研究发现了一个有趣的记忆现象,即DNN 倾向于记住示例中的具体细节,而不是学习一般图样(pattern),这会影响模型的泛化能力、安全性和隐私性。这引发了关于 DNN 泛化性质及其易受安全漏洞影响的关键问题。在本次调查中,我们提出了一个系统的框架,根据泛化和安全/隐私领域组织记忆的定义,并总结了在示例和模型级别的记忆评估方法。原创 2024-06-11 17:08:25 · 1332 阅读 · 1 评论 -
(2024,选择性遗忘,积极遗忘,消极遗忘)机器学习及其他领域的“遗忘”:综述
遗忘是一种适应性功能,而非缺陷,它可以增强学习过程并防止过拟合。遗忘包括选择性遗忘和损害性遗忘(灾难性遗忘)。本文关注前者,即有选择地忽略无关或噪声数据,有助于优化模型的内存利用,提高其概括能力,并增强其对不同数据集和任务的适应性原创 2024-06-11 17:07:48 · 1486 阅读 · 0 评论 -
Arxiv AI 综述列表(2024.05.27~2024.05.31)& VLM
随着大型语言模型(LLM)近来的流行,人们已经尝试将它们扩展到视觉领域。从拥有可视化助手指导我们穿越陌生环境到仅使用高级文本描述生成图像的生成模型,视觉语言模型(VLM)的应用将显著影响我们与技术的关系。然而,有许多挑战需要解决,以提高这些模型的可靠性。虽然语言是离散的,但视觉在一个更高维度的空间中演化,其中概念并不总是容易离散化的。为了更好地理解将视觉映射到语言背后的机制,我们介绍了这个视觉语言模型(VLM)的简介,希望能帮助任何希望进入该领域的人。原创 2024-05-31 19:29:37 · 1052 阅读 · 0 评论 -
arXiv AI 综述列表(2024.05.20~2024.05.24)
联邦学习(Federated Learning,FL)是一种机器学习(ML)框架,使分布在不同地理位置的客户端能够共同训练共享模型,而无需直接交换本地数据【1】。这一框架解决了客户端之间类别不平衡和非独立同分布(non-IID)数据分布等问题。这些问题会导致 “客户端漂移” 问题,从而导致收敛速度变慢和模型性能不佳【2】。通过定期重新分发模型更新和采用自适应自蒸馏和数据协调等方法,FL 在保持数据隐私和安全的分布式环境中改进了模型训练。原创 2024-05-24 17:54:39 · 1578 阅读 · 0 评论 -
arXiv AI 综述列表(2024.05.13~2024.05.17)
公和众和号:EDPJ(进 Q 交流群:922230617 或加 VX:CV_EDPJ 进 V 交流群)每周末更新,完整版进群获取。Q 群在群文件,VX 群每周末更新。原创 2024-05-18 03:16:31 · 1404 阅读 · 0 评论 -
综述列表(~2024.05.10)
近期 CV 领域综述列表原创 2024-05-10 22:58:33 · 246 阅读 · 0 评论