《Denoising Distantly Supervised Open-Domain Question Answering》浅析

前言:

小编所写博客主要目的是记录之用,不免显得琐碎唠叨,不过分享出来如果能有只言片语帮到大家也是极好的。若您觉得一无所获,请及早退出,若有想法进一步交流,可评论。(原谅我没有时间排版)

论文题目:远距离监督开放问答的降噪。

1.论文提出一种新模,包括一个可以去除噪音文章的选择器,和一个从文中找出正确答案的reader。那么重点就在这个选择器怎么实现。

2.这幅图可以很好地解释这篇文章的创新点:

相比于之前的文章,作者的切入点是:之前确实有文章做过降噪处理,但是他们没有从源头做起,具体来说就是依靠于改进reader来提取正确答案,达到更好的效果。但是作者从源头做起,在第一步得到几篇文章以后,先做一个select,去除那些跟问题实际上没有关系的文章,这样第二步reader的效果就会更好。

3.下面我们关键来看如何去噪(方法):

question q =(q1, q2, · · · , q|q|)

 m paragraphs which are defined as P = {p1, p2, · · · , pm }

where pi = (p1i,p2i,· · · , p|pi |i)

我们的目标就是在给定的文章集合P,和问题q的情况下,答案a的概率。

(1)文章选择器的目标函数: Pr(pi |q, P),在给定P和q的情况下计算每篇文章的概率

(2)reader函数: Pr(a|q, pi),用LSTM实现,根据概率公式

段落编码:

把段落的每一个词都转换成向量,然后扔到某个神经网络中去,比如RNN,然后得到得到他们的隐藏状态,这个隐藏状态中包含了这个词以及周围的词的语法信息(虽然我也不知道为什么这么说)

然后用类似的方法编码问题,其中用到了attention,不过不难,只是增加了权重信息而已。大概如下:

最后只需要这个公式就可以得到我们之前提到的目标函数:

之后的具体细节小编先留着,等有必要再继续研读。

总之,本文的核心思想就是加入了select这个步骤。

未完待续···

### 自监督高光谱图像去噪中的解混合扩散方法 #### 方法概述 自监督学习框架下的高光谱图像(HSI)去噪旨在利用未标记的数据来提升模型性能。解混合扩散(Unmixing Diffusion)作为一种创新的方法,在这一领域取得了显著进展[^1]。 该技术的核心在于通过模拟物理过程中的扩散现象,逐步去除噪声成分的同时保持原始信号特征不变。具体来说,算法会迭代地调整像素间的相互关系,使得相邻区域内的纯净光谱信息得以保留并增强,而随机分布的噪音则被有效抑制。 #### 关键步骤解析 ##### 数据预处理阶段 为了适应后续操作需求,输入的含噪HSI需经过标准化转换等初步处理措施: ```matlab % 假设hsi_data为读取到内存中的三维数组形式的高光谱影像数据 mean_val = mean(hsi_data(:)); std_val = std(hsi_data(:)); normalized_hsi = (hsi_data - mean_val) / std_val; ``` ##### 解混合建模部分 构建基于先验知识指导的空间-波谱联合表示空间,用于区分目标物质与背景干扰项之间的差异特性: ```python import torch.nn as nn class UnmixingDiffusionModel(nn.Module): def __init__(self, input_channels, hidden_layers=3, num_features=64): super().__init__() layers = [] current_dim = input_channels for _ in range(hidden_layers): next_dim = max(num_features // 2**(hidden_layers-_), 16) conv_layer = nn.Conv3d(current_dim, next_dim, kernel_size=(3, 3, 3)) act_func = nn.ReLU() layers.extend([conv_layer, act_func]) current_dim = next_dim self.unmixer = nn.Sequential(*layers) def forward(self, x): return self.unmixer(x) ``` 此处采用卷积神经网络(CNNs),特别是针对多维张量设计的Conv3D层作为主要组件之一,有助于捕捉局部上下文依赖性以及跨频带间潜在关联结构。 ##### 扩散机制引入环节 定义损失函数引导参数优化方向,并融入正向/反向传播路径上的动态变化规律以促进更优解收敛速度加快: ```python def diffusion_loss(clean_signal_estimation, noisy_input, beta_schedule='linear'): T_max = len(beta_schedule) timesteps = np.random.randint(0, high=T_max, size=noisy_input.shape[0]) noise_level = get_noise_levels(timesteps=timesteps, schedule_type=beta_schedule) noised_samples = add_gaussian_noise(noisy_input, scale=noise_level) predicted_clean = model(noised_samples) mse_per_sample = ((predicted_clean - clean_signal_estimation)**2).sum(dim=[1,2,3]) weighted_mse = mse_per_sample * compute_weights_from_timestep(timesteps) return weighted_mse.mean() # 辅助功能实现细节省略... ``` 此段代码片段展示了如何计算不同时间步长下加权均方误差(MSE),并通过最小化这种度量值促使估计结果逼近真实情况。 #### 实验验证效果评估 实验表明,相较于传统手段而言,运用上述策略能够获得更加理想的视觉质量改善程度及定量指标得分改进幅度。值得注意的是,实际应用过程中还需考虑诸如计算资源消耗等因素的影响。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值