
论文翻译
文章平均质量分 94
进击的小老虎丶
入淮清洛渐漫漫,人间有味是清欢
展开
-
PINs · Progressive Implicit Networks for Multi-Scale Neural Representations
多层感知器(MLP)已被证明是有效的场景编码器,当与输入的高维投影相结合时,通常称为位置编码。然而,宽频谱场景仍然是一个挑战:选择高频位置编码在低结构区域引入噪声,而低频率导致细节区域拟合较差。为了解决这个问题,本文提出了一种渐进式位置编码,将分层MLP结构暴露给增量频率编码集。翻译 2022-11-30 21:08:37 · 437 阅读 · 0 评论 -
COIN: COmpression with Implicit Neural representations
COIN翻译 2022-08-01 15:48:12 · 1384 阅读 · 0 评论 -
COIN++: Neural Compression Across Modalities
COIN++,这是一种神经压缩框架,可以无缝处理各种数据模式。具体方法是基于将数据转换为隐式神经表示,即将坐标(如像素位置)映射到特征(如RGB值)的神经函数。翻译 2022-07-23 16:35:15 · 1653 阅读 · 1 评论 -
A Unified End-to-End Framework for Efficient
图像压缩翻译 2022-07-19 11:19:22 · 939 阅读 · 0 评论 -
Progressively-connected Light Field Network for Efficient View Synthesis
NeRF论文笔记翻译 2022-07-17 18:40:33 · 748 阅读 · 1 评论 -
SINCO: A Novel structural regularizer for image compression using implicit neural representations
隐式神经表示(INR)是一种基于深度学习(DL)的图像压缩解决方案。通过训练一个权重小于图像像素数的INR模型,将图像的坐标映射到对应的像素值,可以对图像进行压缩。虽然传统的INRs训练方法是基于加强像素图像一致性,但我们建议通过使用一种新的结构正则器进一步提高图像质量。我们提出结构正则化INR压缩(SINCO)作为一种新的INR图像压缩方法。SINCO通过使用分割网络来惩罚从压缩图像中预测的分割掩码的差异,使压缩图像的结构与真实图像相一致。翻译 2022-11-06 17:31:27 · 672 阅读 · 0 评论 -
Latent-Space Scalability For Mutil-Task Collaborative Intellingence
研究了多任务协同智能的潜在空间可扩展性,其中一个任务是目标检测,另一个任务是输入重构。在我们提出的方法中,可以有选择地解码部分潜在空间以支持目标检测,而在需要输入重构时可以解码其余的潜在空间。当只需要目标检测时,这种方法允许减少计算资源,并且可以在不重构输入像素的情况下实现。通过改变训练损失函数中各项的比例因子,可以训练系统在目标检测精度和输入重构质量之间实现各种权衡。通过与相关基准相比的实验,验证了可调系统在两个任务上的性能。............翻译 2022-08-13 21:16:41 · 350 阅读 · 1 评论 -
MTI-Net: Multi-Scale Task Interaction Networks for Multi-Task Learning
任务特征在每个尺度上被单独提取,使我们的模型能够在多个尺度上捕捉任务交互,即接受域。蒸馏完成后,将各个尺度提取的任务特征进行聚合,进行最终的任务预测。为了提高性能,我们用特征传播机制扩展了我们的模型,该机制将提取的信息从低分辨率任务特征传递到高分辨率任务特征。(2)我们引入了一种架构,在此基础上建立了专用模块,即多尺度多模态蒸馏(第2.1节)、特征跨尺度传播(第2.4节)和特征聚合(第2.5节);(3)我们克服了多任务网络中性能下降的一个常见障碍,并观察到任务之间可以相互受益,导致与单任务相比的显著改进。翻译 2022-10-21 23:46:29 · 469 阅读 · 0 评论 -
On combining denoising with learning-based image decoding
噪声是任何传感器的固有组成部分,并且在不同程度上存在于在现实生活环境中捕获的任何内容中。在成像应用中,已经提出了几种预处理和后处理解决方案来处理捕获图像中的噪声。最近,基于学习的解决方案在图像增强,特别是图像去噪方面显示了令人印象深刻的结果。在这篇论文中,我们回顾了在压缩域图像去噪的多种新解决方案,通过将去噪操作集成到基于学习的压缩方法的解码器中。本文首先从不同的角度解释了这种方法的优点。然后,我们描述了提出的解决方案,包括盲和非盲方法,并将它们与现有的方法进行比较。翻译 2022-10-21 23:44:30 · 359 阅读 · 0 评论 -
Nerfies: Deformable Neural Radiance Fields
本文提出了一种方法,能够使用从手机中随意捕获的照片真实地重建可变场景。可以观察到这些类NeRF变形场容易出现局部极小值,本文提出了一种基于坐标的模型从粗到细的优化方法,该方法可以带来更稳定的优化。通过把几何处理和物理模拟的原理应用于类神经网络模型,我们提出了变形场的弹性正则化,进一步提高了鲁棒性。翻译 2022-10-21 23:42:57 · 1251 阅读 · 1 评论 -
The Devil Is in the Details: Window-based Attention for Image Compression
学习过的图像压缩方法显示出比经典图像压缩标准更好的率失真性能。现有的大多数学习图像压缩模型都是基于卷积神经网络的。尽管做出了巨大贡献,但基于CNN的模型的一个主要缺点是其结构不是为捕捉局部冗余而设计的,尤其是非重复纹理,这严重影响了重建质量。因此,如何充分利用全局结构和局部纹理成为基于学习的图像压缩的核心问题。受视觉转换器(ViT)和Swin Transformer最新进展的启发,我们发现将局部感知注意机制与全局相关特征学习相结合可以满足图像压缩的期望。翻译 2022-10-21 23:38:48 · 1853 阅读 · 0 评论 -
Privacy-Preserving Feature Coding for Machines
自动化机器视觉管道不需要精确的视觉内容来执行它们的任务。因此,在不显著影响机器视觉精度的情况下,有可能从数据中删除隐私信息。我们提出了一种新的方法来创建一个可以被下游机器视觉模型使用的图像的隐私保护潜在表示。这种潜在表示是使用对抗训练来构建的,以防止输入的精确重建,同时保持任务的准确性。具体来说,我们分离了一个深度神经网络(DNN)模型,并插入一个自动编码器,其目的是降低维数,并删除与输入重建相关的信息,同时最小化对任务准确性的影响。翻译 2022-10-06 16:40:20 · 318 阅读 · 0 评论 -
A Unified End-to-End Framework for Efficient Deep Image Compression
图像压缩是一种广泛使用的减少图像空间冗余的技术。近年来,基于学习的图像压缩利用神经网络强大的表示能力取得了重大进展。然而,目前最先进的基于学习的图像压缩方法计算量巨大,限制了其实际应用能力。在本文中,我们基于三种新技术提出了一种称为高效深度图像压缩(EDIC)的统一框架,包括通道注意模块、高斯混合模型和解码器端增强模块。具体来说,我们设计了一种用于基于学习的图像压缩的自动编码器式网络。为了提高编码效率,我们使用通道注意模块来利用潜在表示之间的通道关系。此外,熵模型引入了高斯混合模型,提高了比特率估计的准确性翻译 2022-07-12 22:42:00 · 657 阅读 · 0 评论 -
Distilling Knowledge from Graph Convolutional Networks
现有的知识蒸馏方法主要集中在卷积神经网络(CNN)上,其中像图像这样的输入样本位于网格域中,而在很大程度上忽略了处理非网格数据的图卷积网络(GCN)。在本文中,我们提出了第一种专门从预先训练的GCN模型中提取知识的方法。为了实现从教师GCN到学生的知识转移,我们提出了一个局部结构保持模块,该模块明确说明了教师的拓扑语义。在本文中,教师和学生的局部结构信息都被提取为分布,因此,最小化这些分布之间的距离可以实现拓扑感知知识转移。产生一个紧凑但高性能的学生模型。此外,所提出的方法很容易扩展到动态图模型,其中教师和翻译 2022-06-04 20:39:04 · 558 阅读 · 0 评论 -
NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis
我们提出了一种方法,通过使用稀疏的输入视图集优化底层连续的体积场景函数,实现了综合复杂场景的新颖视图的最先进的结果。我们的算法使用全连通(非卷积)深度网络表示场景,其输入是单个连续的5D坐标(空间位置(x, y, z)和观测方向(θ, φ)),其输出是该空间位置的体积密度和视相关的辐射亮度。我们通过沿着相机光线查询5D坐标来合成视图,并使用经典的体绘制技术将输出的颜色和密度投影到图像中。因为体绘制是自然可微的,优化我们的表示所需的唯一输入是一组已知相机姿态的图像。我们描述了如何有效地优化神经辐射场,以渲染具翻译 2022-05-13 23:21:16 · 2565 阅读 · 0 评论 -
NeRV: Neural Representations for Videos
我们提出了一种新的视频神经表示方法(NeRV),它将视频编码到神经网络中。与传统的表示方法不同,我们将视频表示为以帧索引为输入的神经网络。给定一个帧索引,NeRV输出相应的RGB图像。神经网络中的视频编码只是将神经网络与视频帧相匹配,解码过程是一个简单的前馈操作。作为一种图像隐式表示,神经网络输出整个图像,与像素隐式表示相比效率更高,编码速度提高了25倍至70倍,解码速度提高了38倍至132倍,同时获得了更好的视频质量。有了这样的表示,我们可以将视频视为神经网络,从而简化几个与视频相关的任务。例如,传统的视翻译 2022-05-12 21:27:33 · 1810 阅读 · 0 评论 -
Turbo Autoencoder: Deep learning based channel code for point-to-point communication channels
设计对抗通信介质中噪声的代码一直是信息理论和无线通信领域的一个重要研究领域。经过60多年的研究,数学家们已经开发出了在规范模型下进行通信的渐近最优信道码。另一方面,在许多非规范信道设置中,最优代码不存在,并且为规范模型设计的代码通过启发式算法适应这些信道,因此不能保证是最优的。在这项工作中,我们通过设计一个完全端到端联合训练的神经编码器和解码器,即Turbo自动编码器(TurboAE),在这个问题上取得了重大进展,其贡献如下:(a)在中等块长度下,TurboAE在规范信道下接近最先进的性能;(b) 此外,在翻译 2022-05-11 10:43:18 · 1228 阅读 · 0 评论 -
Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
利用循环一致对抗网络的非配对图像对图像转换摘要一.介绍ER相关工作三.公式3.1对抗损失3.2循环一致性损失3.3 Full object四.实现五.实验结果5.1评价指标5.2各种方法比较摘要图像到图像的转换其目标是使用配对图像对的训练集来学习输入图像和输出图像之间的映射。然而,对于许多任务,配对训练数据是不现实的。我们提出了一种方法来学习在非配对例子的情况下将图像从源域X转换到目标域Y。我们的目标是学习映射G: X→Y,这样G(X)的图像分布与Y的分布就无法区分了,其中存在对抗性损失。因为这个映射是翻译 2022-04-30 12:25:01 · 865 阅读 · 0 评论