- 博客(53)
- 收藏
- 关注
原创 【cs.LG】25.1.15 arxiv更新速递
##【arXiv编号】2411.04562v2###【领域】机器学习、强化学习这篇文章属于计算机科学和机器学习领域。arxiv链接摘要: 本文提出了一种新的无监督的基于音视频的语音增强(AVSE)方法,结合了基于扩散的音视频语音生成模型和基于非负矩阵分解(NMF)的噪声模型。首先,扩散模型在对应的视频数据上进行预训练,以模拟语音的生成分布。然后,该预训练模型与基于NMF的噪声模型相结合,以迭代估计干净的语音。
2025-01-16 17:07:44
876
原创 【cs.AI】25.1.15 arxiv更新速递
=========这篇文章属于计算机视觉和人工智能领域。###【arXiv编号】2501.08878v1###【无】###【无】###【机器学习,增量学习,多源学习】arxiv摘要: 文章提出了一种新的合作多智能体强化学习(MARL)方法,适用于网络代理。与依赖完整状态信息或联合观测的先前方法不同,代理必须在部分可观测性下学习如何达到共同目标。在训练期间,他们收集个人奖励并通过本地通信近似团队价值函数,从而产生合作行为。
2025-01-16 17:04:52
846
原创 【cs.CV】25.1.15 arxiv更新速递
链接1摘要: 这篇论文提出将现代无参考图像质量评估(NR-IQA)模型应用于实际的图像增强任务。作者通过在扩散潜在空间而非原始像素域进行梯度上升优化,将NR-IQA模型嵌入到最大后验估计(MAP)框架中。不同的NR-IQA模型在此框架下会产生不同的增强输出,为NR-IQA模型之间的比较提供了新的计算方法。相比于传统的相关性度量,这种比较方法能够更好地反映NR-IQA模型在感知优化场景下的优缺点。
2025-01-16 17:03:09
537
原创 【LLM】25.1.15 arxiv更新37篇
====链接1摘要: 本文提出了一个全新的架构框架,从三个方面理解和分析AI安全性:可信赖的AI、负责任的AI和安全的AI。文章广泛回顾了当前AI安全领域的研究进展,并重点介绍了各个方面的关键挑战和缓解措施。通过大语言模型等最新技术的案例,提出了设计和测试AI安全的创新机制、方法和技术。该研究旨在推动AI安全研究的进步,最终增强人们对数字化转型的信任。总结: 本文提出了一个全面的AI安全架构框架,包括可信赖、负责任和安全三个方面,并针对现有技术如大语言模型提出创新性的设计和测试方法。
2025-01-16 17:01:53
872
原创 【LLM】25.1.14 arxiv更新59篇
PDF链接摘要: 在大规模软件开发中,理解复杂代码库的功能和意图对于有效的开发和维护至关重要。尽管代码摘要已被广泛研究,但现有方法主要关注较小的代码单元,如函数,并且在处理较大的代码工件(如文件和包)时存在困难。此外,当前的摘要模型往往强调低级实现细节,常常忽视对现实应用至关重要的领域和业务上下文。本文提出了一种针对业务应用的仓库级代码摘要的两步层次化方法。首先,使用语法分析识别较小的代码单元如函数和变量,并利用本地大语言模型进行摘要。这些摘要随后被聚合以生成更高级别的文件和包摘要。
2025-01-15 13:03:21
913
原创 【cs.CV】25.1.14 arxiv更新速递
【cs.CV】25.1.14 arxiv更新110篇=====摘要: 我们提出了Omni-RGPT,这是一种多模态大型语言模型,旨在促进图像和视频的区域级理解。为了在时空维度上实现一致的区域表示,我们引入了Token Mark,一组在视觉特征空间中高亮目标区域的标记。这些标记通过区域提示(例如框或掩码)直接嵌入到空间区域中,并同时融入文本提示以指定目标,从而在视觉和文本标记之间建立了直接连接。为了进一步支持无需tracklets的稳定视频理解,我们引入了一种辅助任务,通过利用标记的一致性来引导Token M
2025-01-15 12:59:46
1467
原创 【cs.AI】25.1.13 arxiv更新速递
比较物体、场景或情况的能力对于日常生活中的有效决策和问题解决至关重要。例如,比较苹果的新鲜度能够在购物时做出更好的选择,而比较沙发的设计有助于优化我们居住空间的美学。尽管其重要性,但在通用人工智能(AGI)中,比较能力在很大程度上尚未得到探索。本文介绍了MLLM-CompBench,这是一个旨在评估多模态大型语言模型(MLLM)比较推理能力的基准。MLLM-CompBench通过视觉导向的问题挖掘和配对图像,涵盖了相对比较的八个维度:视觉属性、存在、状态、情感、时间性、空间性、数量和质量。
2025-01-14 16:53:43
911
原创 【cs.AI】25.1.11 arxiv更新速递
随着大型语言模型(LLM)的进步,智能模型已经从单纯工具发展成为具有自身目标和合作策略的自主代理。这种演变催生了NLP中的一种新范式,即人机合作,近年来在众多NLP任务中取得了显著进展。本文首次就人机合作进行全面回顾,探讨其原则、形式化和开放性挑战。具体而言,我们介绍了一种新的分类法,提供了统一的视角来总结现有方法。此外,我们讨论了潜在的前沿领域及其相应的挑战。我们认为我们的工作是一个入门点,为此方面的更多突破性研究铺平道路。
2025-01-13 16:23:34
788
原创 【LLM】25.1.11 Arxiv LLM论文速递
我们介绍了HRMCR(HAE-RAE多步常识推理),该基准旨在评估大型语言模型在文化特定的背景下进行多步推理的能力,重点关注韩国语。问题通过模板和算法自动生成,要求大型语言模型在连续的推理步骤中整合韩国的文化知识。与先前关于出现能力的观察一致,我们的实验表明,训练FLOPs低于(2 \cdot 10^{25})的模型在解决任何问题上表现近乎为零。在这一阈值以上,性能有显著提升。最先进的模型(例如O1)仍然得分不到50%,强调了我们任务的难度。
2025-01-13 16:19:46
1008
原创 【cs.CV】25.1.10 arxiv更新速递
概念瓶颈模型(CBMs)通过将图像最初转化为人类可理解的概念,然后将这些概念进行线性组合以进行分类,提供了内在的可解释性。然而,视觉识别任务的概念注释需要大量的专家知识和劳动,限制了CBMs的广泛采用。最近的方法利用大型语言模型的知识来构建概念瓶颈,多模态模型如CLIP随后将图像特征映射到概念特征空间进行分类。尽管如此,语言模型生成的概念可能冗长并引入非视觉属性,影响了准确性和可解释性。在本研究中,我们探讨通过直接从多模态模型构建CBMs来避免这些问题。
2025-01-10 14:53:52
918
原创 【cs.AI】25.1.10 arxiv更新速递
随着传感器数据的快速增长,有效地以人类可理解的方式解释和界面这些数据变得至关重要。虽然现有研究主要集中在学习分类模型,但很少有研究探索终端用户如何主动从传感器数据中提取有用的见解,这通常受到缺乏合适数据集的阻碍。为了解决这一问题,我们引入了SensorQA,这是第一个针对日常生活监测的长期时间序列传感器数据的人类创建的问答(QA)数据集。SensorQA由人类工作者创建,包含5.6K个多样且实用的查询,这些查询反映了真实人类的兴趣,并配有从传感器数据中得出的准确答案。
2025-01-10 14:51:53
1481
原创 【LLM】25.1.10 Arxiv LLM论文速递
LLM 相关文章 UCT+8 时间 1月9日 12:00 - 1月10日 12:00 共更新 44 篇
2025-01-10 14:48:37
442
原创 【CV】25.1.7 arxiv更新速递
总结: 本文提出了利用夜视摄像头和机器学习算法在低光照条件下实现高效手势识别的方法。总结: Sa2VA是一种统一的多模态模型,能够实现对图像和视频的精确而深入的理解,适用于多种复杂任务。###【git】###【期刊】###【领域】计算机视觉###【arXiv编号】2501.03995v1###【git】###【期刊】###【领域】计算机科学,机器学习,计算机视觉,信息检索,信息技术总结: LargeAD框架通过跨模态对齐和多源数据预训练,显著提升了自动驾驶中三维场景理解的性能。
2025-01-09 00:24:20
420
原创 【LLM】25.1.7 Arxiv 论文速递
##【arXiv编号】2501.03989v1###【git】无###【期刊】无###【领域】计算机科学,信息检索,数据隐私总结: 通过强化学习优化调度策略,实现了对大型语言模型工作负载的智能负载均衡,显著降低了推理延迟。###【arXiv编号】2408.13510###【git】###【期刊】无###【领域】计算机科学###【arXiv编号】2501.03968v1###【git】###【期刊】无###【领域】机器人学, 人工智能。
2025-01-08 19:53:20
1016
原创 【Linux实时编程之CPU亲和度】如何将线程和某一个CPU核绑定
在上一片文章中,我们介绍了如何将特定的某几个CPU核心空闲下来,这篇文章随之介绍、在多CPU系统中,通过sched_setaffinity()可以设置进程的CPU亲和力,使进程绑定在某一个或几个CPU上运行,避免在CPU之间来回切换,从而提高该进程的实时性能。
2023-04-06 16:23:21
891
原创 【Linux实时编程之CPU核心隔离】Linux(ubuntu)下CPU隔离的踩坑与实践 (isolcpus的使用)
记录下CPU隔离时踩的坑和操作过程
2023-04-06 11:07:09
6075
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人