
深度学习
文章平均质量分 83
Amy_mm
https://github.com/xuman-Amy
积跬步,至千里
展开
-
Graph Neural Network on Electronic Health Records for Predicting Alzheimer’s Disease
下载地址:https://arxiv.org/pdf/1912.03761v1.pdfcode:https://github.com/NYUMedML/GNN_for_EHR摘要基于电子病历和图神经网络预测AD。本文根据真实的EHR能够提前12-24个月预测AD,并且在稀疏电子病历中改善了预测性能。另外,本文通过模型学习每个图结构,进一步探索了不同诊断、实验室值以及电子病历流程之间的结构关...原创 2020-01-09 17:57:07 · 931 阅读 · 2 评论 -
Towards Alzheimer’s Disease Classification through Transfer Learning
论文链接:https://arxiv.org/abs/1711.11117code:https://github.com/marciahon29/Ryerson_MRP摘要:利用迁移学习解决医学图像数据较少的问题。VGG和inception是通过预训练的权重进行初始化,然后在全链接成只使用少量的MRI影像进行retrain。我们通过熵来选择信息量较大的图像进行训练。数据集:OASIS MR...原创 2020-01-09 14:20:58 · 574 阅读 · 1 评论 -
NLP秋招持续更
【阿里钉钉】挂1. 问简历。有一些没有说太明白2. 基础知识很重要 可能是不想要我,问的是简历上没怎么写的3. CNN的工作流程https://adeshpande3.github.io/adeshpande3.github.io/A-Beginner’s-Guide-To-Understanding-Convolutional-Neural-Networks-Part-2/CNN - ...原创 2019-09-10 10:40:20 · 615 阅读 · 1 评论 -
《A Multi-task Approach for Named Entity Recognition in Social Media Data》论文笔记
《A Multi-task Approach for Named Entity Recognition in Social Media Data》1. 摘要:社交信息的缺点:固有的噪声信息;不当的语法结构;拼写不连续以及大量的缩写词多任务框架: 使用命名实体分割的辅助任务和细粒度的命名实体分类的主要任务进行联合训练优点:多任务学习能够从字词序列、语法信息和地名词典信息中学习到更高阶的特征。...原创 2019-06-11 14:37:07 · 1314 阅读 · 1 评论 -
3.2、用LSTM实现MNIST手写数字识别
用LSTM实现MNIST手写数字识别就像开始学习编程语言时入门程序是‘Hello World’一样,mnist就是机器学习中的‘Hello World’。1、MNIST手写数字 本数据库有x_train为60,000个用于训练的28*28的灰度手写数字图片,x_test为10,000个测试图片,如下图所示。y_train,y_test是标记的数字,值为0-9。(1)从keras数...原创 2018-07-12 23:01:50 · 4087 阅读 · 4 评论 -
中文序列标注系列(绪)
先立个FLAG写一个比较完善的中文序列标注系列因为最近接触的序列标注比较多,主要是做命名实体识别,区别于之前的主要是类别是多种,不仅限于人名地名机构;模型主要是用了经典的BiLSTM+CRF,BERT,以及二者结合的模型。博主渣渣,代码主要参考git上大佬的分享代码,此系列主要记录序列标注的原理,代码的注释,以及自己阅读的相关论文笔记。关于序列标注的统计学习方法主要是HMM,MEMM,CRF...原创 2019-05-31 23:05:21 · 1180 阅读 · 1 评论 -
《Deep multi-task learning with low level tasks supervised at lower layers》论文阅读笔记
《Deep multi-task learning with low level tasks supervised at lower layers》论文来源:2016 ACL论文方向:multi-task learning摘要:本文创新点: 之前的多任务学习中 task supervision都是在网络的同一层(最外层)。本文提出的一种基于双向RNN的多任务学习架构,不同的任务可以在网络...原创 2019-06-12 17:32:34 · 946 阅读 · 0 评论 -
论文《word2vec Parameter Learning Explained》笔记
###Xin Rong的 论文《word2vec Parameter Learning Explained》CBOWSkip gramH softmaxnegative sampling【CBOW】【single word 】给出一个context,预测一个目标wordinputs:one-hot编码,也就是{x1```xv}中只有一个1,其余是0【input 计算 hid...原创 2019-03-15 16:07:02 · 1072 阅读 · 1 评论 -
paper notes 《Chinese NER Using Lattice LSTM》
paper title:《Chinese NER Using Lattice LSTM》摘要对于中文命名实体识别,我们研究了一种lattice结构的lstm模型(lattice-structured LSTM),这个模型能够对输入的字符序列以及序列中能够与字典相匹配的隐藏的词信息一同编码。相比于基于字粒度的方法,lattice的能够更好的利用字以及字序列的信息。相比于词粒度的方法,...原创 2018-08-23 10:21:02 · 3933 阅读 · 1 评论 -
《Neural Architectures for Named Entity Recognition》paper notes
《Neural Architectures for Named Entity Recognition》摘要为了从有监督的比较小的训练词典中有效学习,最好的命名实体识别系统(named entity recognition)的实现很大部分依赖于手工标注的特征(features)和领域知识(domain-specific knowledge)。本论文介绍两个新的网络架构,一个是基于双向ls...原创 2018-08-14 16:38:38 · 1206 阅读 · 0 评论 -
LSTM原理讲解 GRU原理讲解
2.1 LSTM(Long-short term memory)长短期记忆((Long short-term memory)最早是1997年由Hochreiter 和 Schmidhuber在论文《LONG SHORT-TERM MEMORY》[3][3]^{[3]}中提出的。在所有的循环神经网络中都有一个如图所示的循环链,链式结构的每个单元将输入的信息进行处理后输出。在常规循环神经网...原创 2018-07-12 12:05:30 · 10348 阅读 · 1 评论 -
DNN中的BP和RNN中的BPTT推导
1.5、BP和BPTT参考博客:http://www.cnblogs.com/pinard/p/6509630.html1、反向传播算法(Backpropagation)反向传播算法要解决的问题深层神经网络(Deep Neural Network,DNN)由输入层、多个隐藏层和输出层组成,任务分为分类和回归两大类别。如果我们使用深层神经网络做了一个预测任务,预测输出为ỹ&nb...原创 2018-07-12 11:59:23 · 2865 阅读 · 0 评论