机器学习日报 2017-03-06
@好东西传送门 出品,由@AI100运营, 过往目录 见http://ml.memect.com
订阅:关注微信公众号 AI100(ID:rgznai100,扫二维码),回复“机器学习日报”,加你进日报群
本期话题有:
全部22 深度学习10 算法9 资源5 自然语言处理4 应用3 视觉3 语音2 会议活动2 经验总结2
用日报搜索找到以前分享的内容: http://ml.memect.com/search/
今日焦点 (5)

经验总结 算法 博客 强化学习
【分享】《Markov Decision Process and Reinforcement Learning》浅谈马尔可夫决策过程(MDP)与增强学习 http://t.cn/RiApkK9 作者:Giorgos Papoudakis 来源:作者blog

算法 GPU
【Facebook AI实验室开源相似性搜索库Faiss:性能高于理论峰值55%,提速8.5倍】研究者给出一个可在GPU上运行的k-selection算法。它可在快速寄存奇储器中运行,并且其灵活性能使它能与其他内核一起使用。 http://t.cn/Ri9G6iV

深度学习 视觉 语音 自然语言处理
【深度学习在美团点评的应用】近年来,深度学习在语音、图像、自然语言处理等领域取得非常突出的成果,成了最引人注目的技术热点之一。 http://t.cn/RiLLPz3(来自: @美团点评技术团队 )

深度学习 算法 神经网络
【新智元导读】资深工程师 Nikolas Markou 回顾他多年来在一线使用深度学习的经验,总结出 18 个能让你充分发挥深度神经网络潜力的诀窍,简洁明了,直击核心。新智元在取得 Nikolas 授权后,将文章翻译如下,相信此文能让你在实践中少走弯路 http://t.cn/RiCjJlf

会议活动 深度学习 算法 ICLR 会议
ICLR 2017是深度学习领域最近兴起的新会议。我们在这篇文章里给大家导读部分精选论文,有深度学习架构方面的、有优化算法方面的、有关于对话系统的,也有关于GANs的论文。 http://t.cn/RiKkedM
最新动态
2017-03-06 (17)

深度学习 视觉 语音
【专访FPGA 2017最佳论文得主深鉴科技:深度学习的最大瓶颈是带宽问题而非计算】近日,深鉴科技的 ESE 语音识别引擎的论文在 FPGA 2017 获得了唯一的最佳论文 ESE: Efficient Speech Recognition Engine with Sparse LSTM on FPGA。该项工作聚焦于使用 LSTM 进行语音识别的场景,结合深度压缩以及专用…全文: http://m.weibo.cn/1715118170/4082447895996441

经验总结 深度学习 Madison May Python 博客
【分享】《An Overview of Python Deep Learning Frameworks》常用Python深度学习框架概览 http://t.cn/RxEuty6 简要介绍了Theano、Lasagne、TensorFlow等常用深度学习框架的描述、优缺点以及一些学习资源。作者:Madison May 来源:indico.io

会议活动 自然语言处理 ICLR Minmin Chen 会议 情感分析
组合词向量得到文档表示:引入corruption模型,使得不具有判别能力的词向量趋于零,同时有信息量的稀有词向量得到提升 EFFICIENT VECTOR REPRESENTATION FOR DOCUMENTS THROUGH CORRUPTION [Minmin Chen, ICLR’17] 在IMDB情感分析和wikipedia文档分类等任务上做了评估 http://t.cn/RiNA6A6

算法
【从模型选择到超参调整,六步教你如何为机器学习项目选择算法】#机器学习# 随着机器学习的进一步火热,越来越多的算法已经可以用在许多任务的执行上,并且表现出色。 但是动手之前到底哪个算法可以解决我们特定的实际问题并且运行效果良好,这个答案很多新手是不知道的。如果你处理问题时间可以很长…全文: http://m.weibo.cn/1650363390/4082414818989466

自然语言处理
A Comparative Study of Word Embeddings for Reading Comprehension #机器阅读理解##词向量# 本文是一篇偏实用的实验报告,有一些值得借鉴的结论。第一个基本的结论是,预训练词向量和OOV的表示方法比网络结构对结果的影响更大; 预训练词向量的选择是个重要的问题,用glove还是word2vec,用wikipedia…全文: http://m.weibo.cn/2678093863/4082406610752032

深度学习 算法 应用 资源 PDF 代码 神经网络 推荐系统
【(Torch)RNN内容推荐系统】’Code for the paper “AMAR: Ask Me Any Rating”‘ GitHub: http://t.cn/RiCuDbz ref:《Ask Me Any Rating: A Content-based Recommender System based on Recurrent Neural Networks》C Musto, C Greco, A Suglia, G Semeraro http://t.cn/RiCuDb7

深度学习 Jie Lei 代码
【PyTorch实现的GAN二次元头像生成】’AnimeGAN – A simple PyTorch Implementation of Generative Adversarial Networks, focusing on anime face drawing.’ by Jie Lei GitHub: http://t.cn/RiCREDq

应用 自然语言处理 机器人
【2017年3月6日精彩内容推荐】ChatbotsChina每日挑选聊天机器人、人工智能等相关精彩内容分享给大家,希望对大家有所帮助~ 在公众号内输入日期(例:2017-2-14),可查看往期精彩内容[心] http://t.cn/RiCCafy

深度学习 视觉 算法 李理 神经网络
【李理:卷积神经网络之Batch Normalization的原理及实现】 本系列文章面向深度学习研发者,希望通过Image Caption Generation,一个有意思的具体任务,深入浅出地介绍深度学习的知识。本系列文章涉及到很多深度学习流行的模型,如CNN,RNN/LSTM,Attention等。本文为第10篇。 http://t.cn/RiiFiKO

资源 PDF 代码 课程 速查卡
机器学习中的经典方程和图表,machine-learning-cheat-sheet:Classical equations and diagrams in machine learning, http://t.cn/zTDaX7Y 文档: http://t.cn/RiCxCL5

车万翔 教育网站 李生
2017年3月4日,我中心博士生郭江顺利通过博士学位答辩,李生教授担任答辩委员会主席。郭江博士论文题目为《基于分布表示的多语言多任务语法及语义分析》,导师为王海峰教授,副导师为车万翔副教授。链接: http://t.cn/RiCqLJI @刘挺 @王海峰_百度 @车万翔 @jiangfeng_scir

算法 资源 PDF 论文 强化学习 统计
【每日一推】《Virtual vs. Real: Trading Off Simulations and Physical Experiments in Reinforcement Learning with Bayesian Optimization》 http://t.cn/RiCPstl对控制策略的调参过程常常需要手动进行,费时费力。本文提出基于贝叶斯优化算法的增强学习的新方式,对预先模拟结果和真实实验得到的数…全文: http://m.weibo.cn/1870858943/4082317804385207

深度学习 资源 Andrew Ng 代码 视频
当你接手了一个有关深度学习项目,教你如何来开展工作的一个流程,Deep Learning Project Workflow, http://t.cn/RiKeEss 本文试图从2016年深度学习暑期学校的“Nuts and Bolts of Applying Deep Learning”演讲(油管: http://t.cn/Ri9Q1Iu )中总结Andrew Ng的推荐机器学习工作流程。

Gan Bedroom 代码
ls-gan bedroom数据集 pretrain model 和代码 pretrain model 和代码 http://t.cn/Ri9wuFu pretrain 下载 code: http://t.cn/Ri9wuFB http://t.cn/Ri9wuFm

深度学习 资源 Python 课程 视频
【视频课程:Python深度学习】《Deep Learning with Python – YouTube》by Machine Learning TV http://t.cn/Ri9vwKa

应用 Mark Litwintschik 机器人
【用TensorFlow训练Doom机器人】《Doom Bots in TensorFlow》by Mark Litwintschik http://t.cn/RiKstXk