
机器学习与神经网络推理
六月麦茬
码农中年人
展开
-
线性回归与梯度下降算法(1)
参考:http://blog.youkuaiyun.com/xiazdong/article/details/7950084原创 2016-08-10 15:55:13 · 807 阅读 · 0 评论 -
关于RNN(Seq2Seq)的一点个人理解与感悟
自己在这近三个月的深度网络学习中的一点小感悟,希望对自己的后面学习和实验能有所启发。原创 2017-02-23 22:27:14 · 3612 阅读 · 1 评论 -
Learning Through Dialogue Interactions——基于对话交互的学习
原文:Learning Through Dialogue Interactions 作者: JiweiLi,AlexanderH.Miller,SumitChopra,Marc’AurelioRanzato,JasonWestonAbstract一个好的对话agent是可以和用户进行交互的。在本工作中,我们探索着设计了一个模拟器并合成一个电影领域的任务集合,让learner和teacher进行问翻译 2016-12-26 23:51:09 · 3131 阅读 · 0 评论 -
A Knowledge-Grounded Neural Conversation Model
原文:https://arxiv.org/pdf/1702.01932.pdf 原论文的主要内容翻译与总结摘要Neural network 模型已经可以进行很自然的对话交互了。但目前来看,这些模型在基于任务的对话中并没有通过吸取其他形式的真实信息或背景实体(entity-grounded)观点来增强它们的服务水平。该论文就提出来一种新颖的,完全有数据驱动的,并且基于背景知识(knowledge-g翻译 2017-02-13 23:56:43 · 2226 阅读 · 1 评论 -
Adversarial Learning for Neural Dialogue Generation
Adversarial Learning for Neural Dialogue Generation文献的重点翻译和总结翻译 2017-03-06 16:38:45 · 5326 阅读 · 10 评论 -
SeqGAN: Sequence Generative Adversarial Nets with Policy Gradient
GAN作为生成模型的一种新型训练方法,通过discriminative model来指导generative model的训练,并在真实数据中取得了很好的效果。尽管如此,当目标是一个待生成的非连续性序列时,该方法就会表现出其局限性。其中最重要的原因是在非连续序列中很难传递来自discriminative model对于generative model的gradient update。另外,discr翻译 2017-04-13 19:29:40 · 5185 阅读 · 0 评论 -
(Dual learning)对偶学习——视频笔记
Dual Learning解决的问题: 带标签的训练数据少且高昂的成本,尽可能的利用无标签数据Dual Learning 思想 Dual Learning在NMT中的应用 1.算法思想 2.负例 3.正例 4.实验设置(需要先预训练) Dual Learning的扩展(可以扩展到多个有联系的模型) 自编码中Dual Learning的思想 GAN中Dual Learnin原创 2017-05-11 22:27:02 · 4737 阅读 · 1 评论 -
Neural Relation Extraction(神经关系抽取)的两篇文章
文章一《Neural Relation Extraction with Selective Attention over Instances》 该论文中提到的Distant supervised是一种弱监督形式,作用是在Relation Extraction中可以从未标注的Knowledge Bases(KBs)语料中自动生成训练数据,定义由 (Mintz et al., 2009) 提出,dis原创 2017-05-09 15:17:28 · 6592 阅读 · 0 评论 -
Sequential Match Network: A New Architecture for Multi-turn Response Selection in Retrieval-based Ch
论文链接: https://arxiv.org/pdf/1612.01627.pdfPaper总结笔记: 论文提出了一个基于检索的多轮闲聊架构 闲聊模型一般分为生成模型和检索模型,目前关于检索模型的闲聊还停留在单轮对话中,本文提出了基于检索的多轮对话闲聊。 多轮对话不仅要考虑当前的问题,也要考虑前几轮的对话情景。多轮对话的难点主要有两点:1.如何明确上下文的关键信息(关键词,关键短语或关键原创 2017-05-18 23:24:44 · 2760 阅读 · 0 评论 -
A Diversity-Promoting Objective Function for Neural Conversation Models
该论文提出了基于最大互信息(Maximum Mutual Information—MMI)的期望计算思想。传统的生成模型计算方式是:target = argmax(logP(T|S)),即在source给定的条件下,寻找出最大概率的target。 这样的计算方式所带来的问题是会生成一般性的,具有大概率事件的target,失去了target的多样性。 由互信息公式得: 该论文基于MMI思想,提出原创 2017-06-05 22:16:02 · 1410 阅读 · 0 评论 -
深度学习简介--PPT
小记:前些天导师让我给大家介绍下深度学习。做了几页PPT,做了个小介绍。原创 2017-02-20 17:55:04 · 17039 阅读 · 13 评论 -
End-To-End Memory Networks
原文:《End-To-End Memory Networks》翻译 2017-02-27 23:54:09 · 1104 阅读 · 0 评论 -
BP神经网络算法推导
1、前馈神经网络、反馈神经网络、BP网络等,他们之间的关系 前馈型神经网络: 取连续或离散变量,一般不考虑输出与输入在时间上的滞后效应,只表达输出与输入的映射关系;在此种神经网络中,各神经元从输入层开始,接收前一级输入,并输入到下一级,直至输出层。整个网络中无反馈,可用一个有向无环图表示。常见的前馈神经网络有感知机(Perceptrons)、BP(Back Propagation)网络、RBF(原创 2016-09-07 22:14:01 · 5932 阅读 · 2 评论 -
Word2Vec概述与基于Hierarchical Softmax的CBOW和Skip-gram模型公式推导
该文档是我在《Word2Vec_中的数学原理详解》基础上做的总结和一些新的描述,增加了代码与公式的对照和公式总汇(公式太多,汇总下看起来更方便),可以更加方便的加深对代码和公式理解。既然是总结,则一些很基础的知识我没有写到,如果里面的有些概念不熟悉,也可以自己查一下,网上资料还是很多的。本笔记主要是对《Word2Vec中的数学原理详解》的总结和补充,目的是加深自己的理解和认识。 1、概述 Wor原创 2016-09-21 18:09:56 · 15829 阅读 · 4 评论 -
前馈神经网络与深度学习概述
参考: 1、神经网络浅讲:从神经元到深度学习 - 推酷 2、【转】脉络清晰的BP神经网络讲解,赞 - 编程小翁 - 博客园原创 2016-08-27 15:05:12 · 7035 阅读 · 0 评论 -
RNN初学入门笔记(1)
本篇博客翻译自http://www.wildml.com/2015/09/recurrent-neural-networks-tutorial-part-1-introduction-to-rnns/ 系列的第一篇,并参考了网络上的部分资源.初识RNN RNNs(Recurrent Neural NetWorks)循环神经网络是比较流行的网络模型之一,在NLP的许多任务中有着出色的表现。翻译 2016-09-26 22:09:30 · 783 阅读 · 0 评论 -
RNN的四种代表性扩展—Attention and Augmented Recurrent Neural Networks(一)
看到一片不错的文章,按着自己的理解翻译的,水平有限,难免会有错误,各路大牛看到后感谢指出!Attention and Augmented Recurrent Neural Networks(二)作者:CHRIS OLAH Google Brain SHAN CARTER Google Brain 原文:http://distill.pub/2016/augment翻译 2016-12-15 20:11:11 · 3376 阅读 · 0 评论 -
情感分析与观点挖掘总结笔记(一)
总结自《SentimentAnalysis-and-OpinionMining》第一章1.2.1情感分析的不同分析层次 根据目前的研究现状,一般可以将情感分析调查分为三个主要层次 一、文本文档层次:该层次是判断评论的整体情感态度,从整体看是积极、消极还是中立的态度。不过这一层次的分析是基于假设每篇文档都是阐述关于一个单一实体的观点;不适用于评价或比较多个复杂的实体。 二、语句级别层次:该层次的原创 2017-01-06 10:49:14 · 34235 阅读 · 4 评论 -
RNN的四种代表性扩展—Attention and Augmented Recurrent Neural Networks(二)
这是RNN扩展的后两种介绍。接 Attention and Augmented Recurrent Neural Networks(一)Adaptive Computation Time(自适应计算时间)Standard RNNs do the same amount of computation each time step. This seems unintuitive. Surely, one翻译 2016-12-16 10:42:02 · 2552 阅读 · 0 评论 -
卷积神经网络(CNN)概述及其在NLP中的应用(二)
原文链接: http://www.wildml.com/2015/11/understanding-convolutional-neural-networks-for-nlp/ 原标题《Understanding convolutional neural networks for nlp》卷积神经网络(CNN)概述及其在NLP中的应用(一)5. Convolutional Neural Ne翻译 2016-12-20 00:11:46 · 7483 阅读 · 0 评论 -
RNN with Adaptive Computation Time
最近看完了一篇论文《Adaptive Computation Time for Recurrent Neural Networks》,目前正在做相关实验,先把总结的PPT贴出来分享下,后面有时间再详细总结下吧。也可参考我之前翻译的一篇博文:RNN的四种代表性扩展—Attention and Augmented Recurrent Neural Networks(二) 里面有关于“Adaptive原创 2017-01-03 22:52:44 · 3770 阅读 · 0 评论 -
zero-shot learning 论文三篇小结
what is zero-shot learning zero-shot learning 是为了能够识别在测试中出现,而在训练中未遇到过的数据类别。例如识别一张猫的图片,但在训练时没有训练到猫的图片和对应猫的标签。那么我们可以通过比较这张猫的图片和我们训练过程中的那些图片相近,进而找到这些相近图片的标签,再通过这些相近标签去找到猫的标签。(个人认为zero-shot learning应该属于迁移原创 2017-06-27 23:23:57 · 18967 阅读 · 0 评论