- 博客(13)
- 收藏
- 关注
原创 [ICLR 2024]神经信号解码:CLIP-MUSED: CLIP-GUIDED MULTI-SUBJECT VISUAL NEURAL INFORMATION SEMANTIC DECODING
我们。
2024-12-09 17:38:13
33
原创 EEG Denoise
与现有方法相比,GCTNet 生成的信号具有显着更低的 RRMSE、更高的 CC 和更高的 SNR。值得注意的是,混合伪影的去噪性能通常比单个伪影的去噪性能差,这可能与任务复杂性的增加有关。根据 DuoCL中的实验设置,我们在八个通道(FP1、FP2、F3、F4、F7、F8、T3 和 T4)上评估我们的模型,因为这些通道属于更容易受到影响的额叶区域。为了评估所提出的方法在保留原始大脑活动的同时去除伪影的能力,我们演示了两个具有重度和轻度污染的典型通道(分别是通道 C3 和通道 Fz)的去噪效果。
2024-11-22 11:47:58
838
原创 可控图像生成 SeeCoder: Prompt-Free Diffusion: Taking “Text” out of Text-to-Image Diffusion Models 论文解读
这种方法已成为最受下游用户欢迎的方法之一,因为它:a) 与提示相比,将结构与内容分离可对结果进行。
2024-10-31 19:31:11
787
1
原创 可控图像生成 unCLIP: Hierarchical Text-Conditional Image Generation with CLIP Latents(DALLE2)
虽然解码器可以反转 CLIP 图像嵌入ziz_izi以生成图像xxx,但我们需要一个先验模型,从标题yyy生成ziz_izi,以便从文本字幕生成图像。自回归 (AR) 先验:将 CLIP 图像嵌入ziz_izi转换为离散代码序列,并以标题yyy为条件进行自回归预测。扩散先验: 连续向量ziz_izi直接使用高斯扩散模型建模,以字幕yyy为条件。我们可以将 CLIP 文本embeddingztz_tzt。
2024-10-30 11:09:08
724
原创 可控图像生成:Composer: Creative and Controllable Image Synthesis with Composable Conditions
当条件是可组合的而不是独立使用时,生成模型的控制空间可以大大扩展。此外,我们提出了多种基于无分类器和双向指导的 Composer 用于一系列图像生成和操作任务的方法,为未来的研究提供有用的参考。尽管我们在 4.3 节中凭经验找到了一种简单、可行的多条件联合训练配置,但该策略并不完美,例如,它可能会降低单条件生成性能的权重。例如,如果无法访问全局嵌入,则基于草图或基于深度的生成通常会生成相对较暗的图像。另一个问题是,当出现不兼容的情况时,可能存在冲突。
2024-10-24 21:52:16
1177
原创 可控图像生成 ControlNet:Adding Conditional Control to Text-to-Image Diffusion Models
一下这张图片来自Stable Diffusion — ControlNet 超详细讲解这张图就很直观的体现了ControlNet参与Stable Diffusion进行图像生成的过程:首先将目标图像经过一系列的Preprocess获得作为图像Prompt的图像(获取训练的数据)将Stable Diffusion的每个Unet结构中的Encoder Block和Middle Block制作副本,将ZtZ_tZtttttextprompttextprom。
2024-10-23 16:09:23
1222
原创 可控图像生成 论文解读 IP-Adapter: Text Compatible Image Prompt Adapter for Text-to-Image Diffusion Models
其实本篇文章的核心思想和简单,就是冻结Stable Diffusion的参数,只对原Stable Diffusion结构中的CrossAttnDownBlock2D做了更改,由原来的一个TransformerBlock变成了两个(不是串联,可以理解为并联再相加),新加入的TransformerBlock与原本的TransformerBlock不同之处在于输入不同,一个是Text Embedding,一个是Image Embedding。
2024-10-20 17:55:59
2356
1
转载 DDPM的基本原理(无公式版)
马尔可夫链定义本身比较简单,它假设某一时刻状态转移的概率只依赖于它的前一个状态。如果用精确的数学定义来描述,则假设我们的序列状态是。
2024-10-19 14:41:15
290
原创 [ECCV 2024] 视觉重建 论文解读:DreamDiffusion: Generating High-Quality Images from Brain EEG Signals
我们的MAE预训练可以高效实现,重要的是,它不需要任何专门的稀疏操作。如所指出的,不需要稀疏操作。然而,最近的研究提出了无监督的方法,例如可重构的自动编码器设计,以从未配对的 fMRI 和图像中学习,并利用回归模型提取潜在的 fMRI 表示,可用于微调预先训练的条件 BigGAN 以进行解码。为了确保公平的比较,我们遵循了与 Brain2Image 概述的相同的主观评估策略,并在图 中展示了不同方法的生成实例。在这种方法中,模型的一部分层(通常是较底层的层)会被冻结,即它们的权重在微调过程中不会更新。
2024-10-16 22:15:17
2539
原创 [NeurIPS 2024] 视觉重建 论文解读:Visual Decoding and Reconstruction via EEG Embeddings with Guided Diffusion
视觉重建论文
2024-10-13 21:46:59
1928
原创 batch, patch, token,iteration, epoch分别是什么?
在训练神经网络时,不是一次性将所有数据输入模型,而是将数据分成小批量(batches),然后逐批输入模型进行训练。
2024-10-12 20:11:36
1718
原创 论文解读 EEGformer: A transformer–based brain activity classification method using EEG signal 视觉重构领域
其实这篇论文中提出的EEG模型(以后读的论文提出的方法)也不一定会在自己的研究方向中会有很好的结果,但是我觉得更重要的理解去其他思考的方式,也许对自己以后做实验的思路或者灵感来源是挺重要的,当然也可以把这个论文中提出的方法当作是自己的技术储备(这么说不知道合不合适 有种拿来主义的感觉 但是我觉得作为论文的发表者不就是希望自己的成果被更多人使用和认可吗 所以应该问题不大)。这样的转换使得模型关注的焦点从文本中的上下文关系,转移到了EEG数据中不同通道之间的关系,即本文所强调的EEG信号的空间性特征。
2024-10-10 23:08:56
2633
原创 DCAE: A dual conditional autoencoder framework for the reconstruction from EEG into image 文章解读
DCAE: A dual conditional autoencoder framework for the reconstruction from EEG into image一、研究目的 设计合适的模型来提取脑电图(EEG)中包含的语义特征并将其可视化为相应的图像 二、研究背景研究困境脑电信号的信噪比(SNR)较低且个体差异显着,很难有效地提取脑电信号中包含的语义特征,使得RE2I(EEG TO IMAGE)的实现仍然是一个巨大的挑战 ,目前的研究方法GAN 需要大量的训练数据,并
2024-10-09 12:39:38
1187
1
实时流计算storm的实例 线上图书商城数据的实时展示
2022-12-26
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人