Sequence-to-point learning with neural networks for nonintrusive load monitoring

本文提出序列到点学习方法,输入为主电源窗口,输出是目标设备单点。使用卷积神经网络训练模型,该网络能固有学习目标设备签名以减少可识别性问题。将此方法应用于家庭能源数据,改进了标准误差测量。还通过可视化实验展示了网络对设备状态变化的检测能力。

论文代码:https://github.com/MingjunZhong/NeuralNetNilm

摘要

深度神经网络已被证明是解决这些问题的有前景的方法,但是滑动窗口对于处理信号处理问题中出现的长序列是必要的,这引发了关于如何组合来自不同滑动窗口的预测的问题。 在本文中,我们提出了序列到点学习,其中输入是主电源的窗口,输出是目标设备的单个点。 我们使用卷积神经网络来训练模型。 有趣的是,我们系统地表明卷积神经网络可以固有地学习目标设备的签名,这些签名会自动添加到模型中以减少可识别性问题。 我们将所提出的神经网络方法应用于现实世界的家庭能源数据,并表明这些方法实现了最先进的性能,将两个标准误差测量改进了84%和92%。

绪论:

 a single-channel blind source separation (BSS) problem 单通道盲源分离(BSS)问题,

当在诸如BSS的信号处理应用中应用seq2seq时,立即出现困难。在这些应用中,输入和输出序列可能很长,例如,在我们的一个数据集中,输入和输出序列是14,400个时间步长。由于当前图形处理单元(GPU)和RNN的存储器限制,这样的长序列可能使得训练在计算上都很困难,因为梯度消失。

避免这些问题的常用方法是滑动窗口方法,即训练网络以将输入信号的窗口映射到输出信号的相应窗口。然而,这种方法有几个困难,因为输出信号的每个元素被预测多次,每个滑动窗口一次;自然地使用平均多个预测,从而平滑边缘

此外,我们期望一些滑动窗口将提供比其他窗口更好的单个元素预测,特别是那些元素靠近窗口中点而不是边缘的窗口,以便网络可以利用附近的所有输入信号的区域,过去和未来。但是一个简单的滑动窗口方法无法利用这些信息

这具有使网络上的预测问题更容易的效果:而不是像在seq2seq方法中那样需要预测总W(T-W)输出,其中T是输入信号的长度,W是滑动的大小。 窗口,seq2point方法仅预测T输出。 这允许神经网络将其表示能力集中在窗口的中点,而不是边缘上更困难的输出,希望能够产生更准确的预测

通过可视化我们的网络学习的特征图,我们发现我们的网络自动提取输入信号的有用功能,例如变化点,设备的典型使用持续时间和功率水平。

但是,需要手动提取这些方法所需的领域知识,例如通过基于观察数据的手工制作的特征,这使得方法更难以使用。 相反,我们建议采用神经网络在学习过程中自动提取这些特征。

  1. Sequence-to-point learning

该方法假设中点元素表示为电源窗口的非线性回归。 这种假设背后的直觉是,我们期望该设备的中点元素的状态与该中点之前和之后的主电源信息相关。 我们将在实验中明确显示主电源中的变化点(或边缘)是网络用于推断设备状态的功能之一

  1. 可视化实验结果

有趣的是,我们观察到本文提出的卷积神经网络本质上是学习这些特征的。为了测试网络学到了什么,我们从数据中取出一个窗口,并以我们认为应该影响网络预测的方式手动修改它。  在这些实验中,我们看了一个更容易研究的水壶,因为状态较少。对于每个不同的输入,我们绘制了图3中最后一个CNN层的特征图。有趣的是,所有过滤器都检测到设备的状态变化。更具体地说,一些过滤器负责检测设备的振幅以及状态变化,但其他过滤器仅检测状态变化。图3(b)显示当手动移除水壶时,网络建议信号的幅度以及持续时间不适合水壶。图3(c)显示当水壶的振幅加倍时,网络仍然检测到水壶是合理的,因为持续时间和振幅都对应于水壶。图3(d)表明当手动减小水壶的振幅时,网络预测没有水壶。图3(e)显示,当设备使用的持续时间设置得很长(> 8分钟)时,网络也不再检测到水壶。最后,图3(f)显示,当在中点没有激活时,学习的签名具有与(a)中类似的类型。

<think>好的,我现在需要处理用户关于《Sequence to Sequence Learning with Neural Networks》论文的参考文献请求。首先,我需要确认用户的具体需求。用户提到想查找该论文的引用和参考文献,但提供的站内引用都是关于这篇论文本身的讨论,而不是原始论文的参考文献列表。 接下来,我要检查用户提供的引用内容。引用1到5都是用户站内的资料,主要是对该论文的翻译、阅读总结以及创新点的分析,没有直接给出原论文的参考文献。因此,我需要根据已知信息,指导用户如何找到原论文的参考文献。 首先,正确的做法是直接查看原论文的末尾部分,通常参考文献会在那里列出。但由于用户可能无法访问原论文,我需要提供其他方法。比如,通过Google Scholar搜索该论文,查看被引用的文献,或者使用学术数据库如IEEE Xplore、ACM Digital Library来查找。 另外,用户可能需要知道标准的引用格式。例如,原论文的作者是Ilya Sutskever等,发表于2014年的NIPS会议。正确的引用格式应该是: Sutskever, I., Vinyals, O., & Le, Q. V. (2014). Sequence to sequence learning with neural networks. In *Advances in neural information processing systems* (pp. 3104-3112). 同时,用户可能需要该论文中引用的其他文献,例如关于LSTM、Encoder-Decoder结构的相关研究。这时可以建议用户查阅原论文的参考文献部分,或者推荐一些经典论文,如Hochreiter的LSTM论文、Bahdanau的注意力机制论文等。 需要注意的是,用户提供的站内引用并没有给出原论文的参考文献,因此无法直接从中提取。需要引导用户到正确的学术资源中去查找,并可能提供一些示例引用格式和相关的重要文献,帮助用户进一步研究。</think>关于论文《Sequence to Sequence Learning with Neural Networks》的参考文献及引用方法,以下是分步说明: --- ### 1. **论文基本信息** - **标题**: Sequence to Sequence Learning with Neural Networks - **作者**: Ilya Sutskever, Oriol Vinyals, Quoc V. Le - **会议/年份**: 2014年发表于NeurIPS(NIPS)会议 - **核心贡献**: 提出基于LSTM的Encoder-Decoder框架,首次实现端到端序列到序列学习[^3][^4]。 --- ### 2. **标准引用格式** 根据APA格式(示例): ```latex Sutskever, I., Vinyals, O., & Le, Q. V. (2014). Sequence to sequence learning with neural networks. In \textit{Advances in neural information processing systems} (pp. 3104–3112). ``` --- ### 3. **查找原论文参考文献的方法** - **直接查看原论文**:论文末尾的"References"部分列出了所有引用文献[^1]。 - **通过学术数据库**:在Google Scholar、IEEE Xplore或ACM Digital Library中搜索论文标题,可获取完整参考文献列表。 - **使用引用管理工具**:Zotero或Mendeley导入论文后自动生成参考文献格式。 --- ### 4. **该论文常引用的关键文献** 论文中可能引用的经典研究包括: 1. **LSTM基础论文**:Hochreiter, S., & Schmidhuber, J. (1997). Long short-term memory. 2. **Encoder-Decoder结构**:Kalchbrenner, N., & Blunsom, P. (2013). Recurrent continuous translation models. 3. **神经语言模型**:Bengio, Y., et al. (2003). A neural probabilistic language model. --- ### 5. **该论文的后续引用** 若需查找引用此论文的后续研究(如注意力机制、Transformer等),可通过Google Scholar的"Cited by"功能查看,目前已被引用超3万次。 ---
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值