
科研论文
文章平均质量分 86
在校科研论文阅读的思考与总结
炼丹师祖
这个作者很懒,什么都没留下…
展开
-
论文阅读总结(九):Hidden physics models: Machine learning of nonlinear partial differential equations
我们考虑参数化的非线性偏微分方程的一般形式:ht+Nxλh=0,x∈Ω,t∈[0,T](1)h_t+N_x^{\lambda}h=0, x\in\Omega, t\in[0, T]\tag{1}ht+Nxλh=0,x∈Ω,t∈[0,T](1)h(t,x)h(t, x)h(t,x)表示隐式解, NxλN_x^\lambdaNxλ是以λ\lambdaλ为参数的算子。Ω\OmegaΩ为DDD维空间RDR^DRD上的子集。以一维Burger方程为例对应的NxλhN_x^\lambda hNxλh为N原创 2021-08-04 10:59:33 · 622 阅读 · 0 评论 -
NLP论文总结+个人理解(一):Efficient Estimation of Word Representations in Vector Space
本文提出了两种用来从大数据集中计算连续词向量表示的新的模型架构。词向量表示的好坏的评估基于一个词相似度任务,结果与先前的基于神经网络的最好性能的一些技术进行了比较。准确率大幅度改进以及更低的计算复杂度。训练的词向量在语法和语义相似度上取得了state of the art 的性能。许多传统的NLP系统和NLP技术将单词视作“原子单位”-单词之间没有相似度的概念,单词被表示为词表中的索引,这样做有几个好处在大数据集上训练简单的模型比在小数据集上训练复杂的模型更加的鲁棒,简洁。例如: 在大数据集下(trill原创 2021-07-18 09:27:59 · 304 阅读 · 0 评论 -
论文阅读总结(八):Deep Learning For Symbolic Mathematics
前言:这篇论文是Facebook AI Research在2019年发表的一篇paper。文章创新的地方在于将函数积分和常微分方程的解的求解试图当作两个符号序列相匹配的问题,即通过利用最新的自然语言处理技术训练模型最终得到一个输入为一个函数或常微分方程可以直接输出解的序列的模型。篇章结构:首先文章提出了函数或数学问题(常微分方程)的一种可以应用seq2seq模型的表示方法,并且分析了表示空间的“容量”,之后作者给出了生成函数积分、一阶二阶偏微分方程的监督数据集的方法。最后,作者利用这些数据集训练seq原创 2021-06-12 16:07:28 · 389 阅读 · 0 评论 -
论文阅读总结(七):DeepXDE: A Deep Learning Library for Solving Differential Equations
这篇文章是关于深度学习求解偏微分方程的内容,作者对PINN(Physical Informed Neural Network)一文提出的方法进行了归纳总结,从理论层面分析了PINN解偏微分方程的可行性以及提出了改善PINN训练效率的方法,并对PINN与传统的有限元素法(FEM)进行了比较,最后作者将PINN做成了一个名为DeepXDE的python库。PINN算法和理论分析:深度神经网络:深度神经网络在数学层面可以理解为一个复合函数,最简单的神经网络是前馈神经网络,本文求解偏微分方程使用的前馈神经网络原创 2021-05-10 16:43:29 · 3166 阅读 · 0 评论 -
论文阅读问题总结(四):Data-driven discovery of partial differential equations
1.本文主要想解决什么问题?本文想要通过使用某个系统在空域上的时间序列观测到的数据,采用稀疏回归方法挑选支配方程的非线性项和偏导项从而确定可以准确拟合数据的偏微分方程(PDE)(In a word, find the PDE)。...原创 2021-05-04 16:28:34 · 1585 阅读 · 0 评论 -
论文阅读问题总结(六):Meta-Learning with Domain Adaption for Few-shot Learning Under Domain Shift
1.这篇paper作者提出要解决的问题?作者提出,大部分现存的小样本元学习领域的一些工作都基于两个假设:training task和testing task都是从满足同一task distribution中采样出来的小样本数据集。training tasks有足够的数据集提供给模型训练。然而在真实的应用场景中,我们要解决的目标任务所在的领域并没有大量数据集用来构建training tasks(与testing task满足同一task distribution)。2.传统的深度学习的domain原创 2021-03-23 22:05:18 · 745 阅读 · 0 评论 -
论文阅读问题总结(五):Task-Agnostic Meta-Learning for Few-shot Learning
1.本文作者提出了什么问题?当前基于梯度的元学习方法(MAML, Reptile)虽然针对模型学习到了可以泛化到不同task的初始化参数,但作者指出学习到的初始化参数并不是针对各个task都可以很好地泛化,对与training task相似的task可以快速泛化且perform well,但对一个与training task相似度较低的new task并不一定能很好地泛化。总而言之学到的初始化参数模型是一个有偏(biased)的模型。2.针对上述问题,作者提出的解决思路?1.outer-loop设计一原创 2021-03-23 17:15:55 · 389 阅读 · 0 评论 -
论文阅读问题总结(三):Optimization as A Model for Few-Shot Learning
1.本文作者想要解决什么问题?如何解决?作者指出传统的深度学习的参数更新和优化方法在小样本学习问题上并不能够很好地work。这主要是因为1:基于梯度的优化算法:Momentum、Adagrad、Adam并不适用于在梯度更新步长受限的场景,即它们都是为大数据多步迭代而设计的优化算法。小样本更新高维参数模型容易过拟合,所以梯度更新步长受限(另一个需要受限的原因是元学习的主要目标之一是可以快速学习),不能遵循传统深度学习的Rountine在adaption过程多次更新参数。基于上述问题作者提出了一种自动学习原创 2021-03-19 22:29:03 · 300 阅读 · 0 评论 -
论文阅读问题总结(一):Learning to Compare: Relation Network for Few-Shot Learning
1.本篇论文主要解决什么问题?本篇论文主要解决小样本学习问题:尝试解决One-shot learning、Few-shot、Zero-shot的小样本学习问题。是Embedding-based小样本学习方法的一种。2.模型的具体方法,训练过程?与Prototypical network和Matching Network一样,模型以epicode为单位进行训练,每个episode分为Support Set和Query Set, Support Set 是一个N-way K-shot的数据集。训练过程原创 2021-03-17 22:21:22 · 305 阅读 · 0 评论