
论文共读
文章平均质量分 76
comedate
这个作者很懒,什么都没留下…
展开
-
[医疗 AI ] 3D TransUNet:通过 Vision Transformer 推进医学图像分割
医学图像分割在推进医疗保健系统的疾病诊断和治疗计划中起着至关重要的作用。U 形架构,俗称 U-Net,已被证明在各种医学图像分割任务中非常成功。然而,U-Net 基于卷积的操作本身限制了其有效建模远程依赖关系的能力。为了解决这些限制,研究人员转向了以其全局自我注意机制而闻名的 Transformer 作为替代架构。一个流行的网络是我们以前的 TransUNet,它利用 Transformers 的自我关注来补充 U-Net 的本地化信息与全局背景。原创 2024-08-23 10:56:55 · 1817 阅读 · 1 评论 -
【论文共读】【翻译】【CGAN】【Conditional Gernerative Adversarial Networks】
生成对抗网络[8]最近被引入,作为一种训练生成模型的新方法。在这项工作中,我们引入了生成对抗网络的条件版本,该网络可以通过简单地输入数据来构建,y,我们希望对生成器和判别器进行条件处理。我们表明,该模型可以生成以类标签为条件的MNIST数字。我们还说明了如何使用该模型来学习多模态模型,并提供了应用于图像标记的初步示例,其中我们演示了这种方法如何生成不属于训练标签的描述性标签。最近引入了生成对抗网络作为训练生成模型的替代框架,以规避近似许多棘手的概率计算的困难。原创 2024-07-31 08:30:00 · 654 阅读 · 0 评论 -
【论文共读】【翻译】【GAN】Generative Adversarial Nets
提出了一种新的对抗过程估计生成模型的框架,其中我们同时训练两个模型:一个是捕获数据分布的生成模型G,另一个是估计样本来自训练数据而不是G的概率的判别模型D。G 的训练程序是最大化 D 犯错的概率。该框架对应于 minimax 双人游戏。在任意函数 G 和 D 的空间中,存在一个唯一的解,其中 G 恢复训练数据分布,D 在所有地方都等于1/2。在G和D由多层感知器定义的情况下,整个系统可以通过反向传播进行训练。在训练或生成样本期间,不需要任何马尔可夫链或展开的近似推理网络。原创 2024-07-30 15:12:31 · 1619 阅读 · 0 评论 -
【论文共读】【翻译】【DCGAN】UNSUPERVISED REPRESENTATION LEARNING WITH DEEP CONVOLUTIONAL GENERATIVE ADVERSARIAL
近年来,使用卷积网络 (CNN) 的监督学习在计算机视觉应用中得到了大量采用。相比之下,使用CNN的无监督学习受到的关注较少。在这项工作中,我们希望帮助弥合CNN在监督学习和无监督学习方面的成功之间的差距。我们介绍了一类称为深度卷积生成对抗网络 (DCGAN) 的 CNN,它们具有一定的架构约束,并证明它们是无监督学习的有力候选者。在各种图像数据集上进行训练,我们展示了令人信服的证据,证明我们的深度卷积对抗对在生成器和鉴别器中学习了从对象部分到场景的表示层次结构。原创 2024-07-30 11:21:27 · 808 阅读 · 0 评论 -
[论文共读][翻译][CycleGAN] Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
图像到图像转换是一类视觉和图形问题,其目标是使用一组对齐的图像对的训练来学习输入图像和输出图像之间的映射。但是,对于许多任务,配对训练数据将不可用。我们提出了一种学习方法,用于在没有配对样本的情况下将图像从源域 X 转换为目标域 Y。我们的目标是学习 G : X → Y 的映射,使得 G(X) 的图像分布与使用对抗损失的分布 Y 无法区分。由于这种映射受到高度欠限,我们将其与反向映射 F : Y → X 耦合,并引入周期一致性损失以强制 F(G(X)) ≈ X(反之亦然)。原创 2024-07-29 11:20:44 · 1254 阅读 · 0 评论 -
【论文共读】【翻译】【GPT】Improving Language Understanding by Generative Pre-Training
自然语言理解包括各种不同的任务,例如文本蕴涵、问答、语义相似性评估和文档分类。尽管大量未标记的文本语料库很丰富,但用于学习这些特定任务的标记数据很少,这使得判别性训练的模型难以充分执行。我们证明,通过对各种未标记文本语料库进行语言模型的生成预训练,然后对每个特定任务进行判别性微调,可以实现这些任务的巨大收益。与之前的方法相比,我们在微调过程中利用任务感知的输入转换来实现有效的传输,同时需要对模型架构进行最少的更改。我们在自然语言理解的广泛基准上证明了我们的方法的有效性。原创 2024-07-26 12:40:37 · 1378 阅读 · 0 评论 -
[论文共读][翻译][BERT][Pre-training of Deep Bidirectional Transformers for Language Understanding]
介绍了一种新的语言表示模型BERT,即Bidirectional Encoder Representations from Transformers。与最近的语言表示模型不同(Peters et al., 2018a;Radford et al., 2018),BERT 旨在通过在所有层中共同调节左右上下文来预训练来自未标记文本的深度双向表示。因此,预训练的 BERT 模型只需一个额外的输出层即可进行微调,从而为各种任务(例如问答和语言推理)创建最先进的模型,而无需对特定任务的架构进行大量修改。原创 2024-07-24 12:43:38 · 1109 阅读 · 0 评论 -
[论文共读][翻译][ViT][Transformers for image recongnition at scale]
对 ViT 论文的全文翻译虽然 Transformer 架构已成为自然语言处理任务的事实标准,但它在计算机视觉中的应用仍然有限。在视觉中,注意力要么与卷积网络结合使用,要么用于替换卷积网络的某些组件,同时保持其整体结构不变。我们发现,这种对CNN的依赖是不必要的,直接应用于图像补丁序列的纯转换器可以在图像分类任务中表现出色。原创 2024-07-24 07:45:00 · 2115 阅读 · 0 评论 -
[论文共读][翻译][Transformer][Attension is All You Need]
Attention is all you need!显性序列转导模型基于复杂的递归或卷积神经网络,包括编码器和解码器。性能最好的模型还通过注意力机制连接编码器和解码器。我们提出了一种新的简单网络架构,即Transformer,它完全基于注意力机制,完全省去了递归和卷积。对两个机器翻译任务的实验表明,这些模型在质量上更出色,同时具有更高的可并行化性,并且需要更少的训练时间。我们的模型在 WMT 2014 英语到德语翻译任务中实现了 28.4 BLEU,比现有的最佳结果(包括集成)提高了 2 BLEU 以上。原创 2024-07-23 13:03:48 · 1123 阅读 · 0 评论 -
【论文共读】【翻译】ShuffleNet v1:一种用于移动设备的极其高效的卷积神经网络
Shuffle Net V1 文章的翻译原创 2024-07-19 13:14:01 · 614 阅读 · 0 评论 -
[CGAL] Mesh Deformation with CGAL
Papers Documents Codes about mesh deformation in CGAL原创 2023-05-17 22:01:59 · 279 阅读 · 0 评论 -
[JHU] The Poisson Equation in Image & Shape Processing
[JHU] The Poisson Equation in Image & Shape Processinghttps://www.cs.jhu.edu/~misha/Fall07/原创 2022-05-05 13:57:16 · 218 阅读 · 0 评论 -
[论文共读] Marching Cube 经典的文章
marching cube 最经典的文章:Lorensen W E, Cline H E. Marching cubes: A high resolution 3D surface construction algorithm. ACM SIGGRAPH Computer Graphics. 1987;21(4)原创 2022-02-28 21:41:36 · 1007 阅读 · 0 评论 -
Pytorch CPU 训练 MNIST Dataset 例子
Pytorch CPU 训练 MNIST Dataset 例子1. 代码主要来源于:Source: https://github.com/pytorch/examples/注意:应为版本不一致的原因,会出现下面的报错信息:pytorch报错:IndexError: invalid index of a 0-dim tensor. Use tensor.item() to convert a 0-dim tensor to a Python number是你的torch版本的不同造成的。解决:将原创 2021-09-30 22:47:52 · 332 阅读 · 0 评论 -
PIFuHD Demo 详细使用说明 以及复现
最近,Fackbook AI 研究出从一张图片生成Mesh模型的算法PIFuHD,非常好玩又实用。具体的代码,在Google Colab 上的有Demo。考虑到广大的筒子们都不能FQ, 所以,我在Colab上验证通过后,精简了一下复现的过程。原创 2021-02-14 21:48:35 · 7695 阅读 · 15 评论 -
[AI 论文共读] Monocular Real-Time Volumetric Performance Capture
论文地址:Monocular Real-Time Volumetric Performance Capture论文在B站的PPT讲解:PPT讲解github 相关的代码:MonoPortgithub 代码PIFuHD DemoPIFuHD Demo对于没有GPU的用户,可以使用 google colab,一天可以使用 GPU 大约 12 小时。如果使用 google colab, 可以参考如下教程:google colab 免费使用GPUExample 图片:..原创 2021-02-14 15:55:35 · 498 阅读 · 0 评论