
深度学习进阶
文章平均质量分 80
针对深度学习的参数设置、网络调优、迁移学习、在线学习、对抗网络等方面,结合实践,全方位提升品阶!
linolzhang
资深产品经理,系统架构师,PMP,PMI-ACP敏捷开发专家,个人主要研究领域为 AI、AR、3D Visualization。
展开
-
深度网络模型压缩 - CNN Compression
一. 技术背景 一般情况下,CNN网络的深度和效果成正比,网络参数越多,准确度越高,基于这个假设,ResNet50(152)极大提升了CNN的效果,但inference的计算量也变得很大。这种网络很难跑在前端移动设备上,除非网络变得简洁高效。 基于这个假设,有很多处理方法,设计层数更少的网络、更少的卷积和、每个参数占更少的字节,等等。 前面讲过的 PVANet、原创 2017-10-13 23:22:39 · 10648 阅读 · 0 评论 -
Mark 一些有意思的深度学习方向
1. VQA Visual Question Answering,给出一张图片,就该图片提出任何问题?自动get到你所期望的答案。这属于Visual Reasoning 的范畴,学者们不满足于传统的图像识别、分割、Caption等工作,尝试去挖掘更高级的机器推理能力。来看解决思路,CNN、LSTM(RNN)、Attention Model、BOW,都是图像、文本、NLP领域的通用手法,原创 2017-09-08 22:35:56 · 5205 阅读 · 0 评论 -
对抗网络之目标检测应用:A-Fast-RCNN
对抗网络之目标检测应用:A-Fast-RCNN 论文:A-Fast-RCNN: Hard Positive Generation via Adversary for Object Detection 【点击下载】 Caffe代码:【Github】一. 深度学习正确的打开方式 深度学习的根基在于样本,大量的样本决定了深度网络的精确度和收敛性,针对样本的挖掘是深度学原创 2017-08-05 00:21:16 · 9642 阅读 · 1 评论 -
轻量级网络 - PVANet & SuffleNet
一. PVANet 论文:PVANET: Deep but Lightweight Neural Networks for Real-time Object Detection 【点击下载】 Caffe代码:【Github】 设计了一种轻量级的网络,取名叫 PVANet,特点是 Channel少、Layer多,在 VOC2007 和 VOC2012 精确原创 2017-07-28 23:56:22 · 8447 阅读 · 3 评论 -
基于视频的目标检测
一. 提出背景 目标检测在图像处理领域有着非常大的占比,过去两年,深度学习在Detection的持续发力,为这个领域带来了变革式的发展:一方面,从 RCNN 到 Fast RCNN,再到 Faster RCNN,不断刷新 mAP;另一方面,SSD、YOLO 则是将性能提高到一个非常高的帧率。 对于视频来讲,相邻帧目标之间存在 明显的上下文关系,这种关系在技术上的表现就是 T原创 2017-07-11 23:05:04 · 34733 阅读 · 10 评论 -
深度学习的研究方向和发展趋势
一. 人工智能应用领域1. 计算机视觉 生物特征识别:人脸识别、步态识别、行人ReID、瞳孔识别; 图像处理:分类标注、以图搜图、场景分割、车辆车牌、OCR、AR; 视频分析:安防监控、智慧城市;2. 自然语言处理 语音识别(Siri、Cortana、讯飞)、文本数据挖掘、文本翻译;3. 数据挖掘 消费习惯、天气数据、推荐系统、知识库(专家系统);4. 游戏 角原创 2017-07-07 23:07:22 · 35048 阅读 · 19 评论 -
迁移学习:经典算法解析
一. 了解迁移学习 迁移学习(Transfer Learning)目标是将从一个环境中学到的知识用来帮助新环境中的学习任务。 > The ability of a system to recognize and apply knowledge and skills learned in previous tasks to novel tasks。原创 2017-06-16 23:08:41 · 67564 阅读 · 11 评论 -
深度学习进阶之路 - 从迁移学习到强化学习
一. 深度学习及其适用范围 大数据造就了深度学习,通过大量的数据训练,我们能够轻易的发现数据的规律,从而实现基于监督学习的数据预测。 没错,这里要强调的是基于监督学习的,也是迄今为止我在讲完深度学习基础所给出的知识范围。 基于卷积神经网络的深度学习(包括CNN、RNN),主要解决的领域是 图像、文本、语音,问题聚焦在 分类原创 2017-06-06 23:17:44 · 19581 阅读 · 0 评论