
Deep Learning
等待破茧
这个作者很懒,什么都没留下…
展开
-
tusimple车道线检测 处理自己的数据集 用自己的数据集训练模型
tusimple车道线检测 处理自己的数据集 用自己的数据集训练模型_喜欢爱喝矿泉水的男孩的博客-优快云博客标注数据将自己的数据用labelme(至于如何安装和使用请自查)打开,然后选择线段或者点进行标注,标注完成之后会生成json格式的标注信息。处理数据处理得到的json文件,会生成这五个文件我这里使用的是批量转换.sh命令,代码如下(如你的数据是单个的你可用自带的命令来生成):单个数据转换labelme_json_to_dataset <文件名>.json批转载 2022-02-18 09:35:22 · 1305 阅读 · 0 评论 -
ECCV2020|图像重建(超分辨率,图像恢复,去雨,去雾等)相关论文汇总(附论文链接/代码/解析)
转载自https://zhuanlan.zhihu.com/p/180551773原帖地址:ECCV2020|图像重建/底层视觉(超分辨率,图像恢复,去雨,去雾,去模糊,去噪等)相关论文汇总(附论文链接/开源代码/解析)【持续更新】_Kobaayyy的博客-优快云博客_eccv2020去雨blog.youkuaiyun.com整理了下今年ECCV图像重建/底层视觉(Low-Level Vision)相关的一些论文,包括超分辨率,图像恢复,去雨,去雾,去模糊,去噪等方向。大家如果觉得有帮助,欢迎点赞和转载 2021-04-16 10:48:39 · 3906 阅读 · 0 评论 -
CCNet:Criss-Cross Attention for semantic Segmentation
CCNet:Criss-Cross Attention for semantic Segmentation原文链接:https://arxiv.org/abs/1811.11721Github:https://github.com/speedinghzl/CCNet原创 2021-03-25 16:13:31 · 208 阅读 · 0 评论 -
Yolov3转化Caffe框架详解
https://blog.youkuaiyun.com/watermelon1123/article/details/82083522下面这部分将着重讲一下如何实现从darknet向yolov3的转换,首先这一过程要感谢chenyingpeng提供的代码,博客在这里。1.加入upsample层并编译Caffeupsample层的代码在这里,密码bwrd。其中的upsample_layer.hp...转载 2020-03-31 17:26:59 · 1093 阅读 · 0 评论 -
数据挖掘领域十大经典算法之(超详细附代码)AdaBoost算法
https://blog.youkuaiyun.com/fuqiuai/article/details/79482487转载 2019-02-22 09:06:58 · 645 阅读 · 0 评论 -
SSD:Single Shot MultiBox Detector
转载自http://blog.youkuaiyun.com/u010167269/article/details/52563573Preface这是今年 ECCV 2016 的一篇文章,是 UNC Chapel Hill(北卡罗来纳大学教堂山分校) 的 Wei Liu 大神的新作,论文代码:https://github.com/weiliu89/caffe/tree/ssd https://handong15...转载 2018-02-25 13:38:05 · 340 阅读 · 0 评论 -
论文笔记:TextBoxes: A Fast Text Detector with a Single Deep Neural Network
转自http://blog.youkuaiyun.com/w5688414/article/details/77986955感想这是一篇关于自然场景下文本检测的论文,用了一个深度神经网络来对图片文本进行检测,还发到AAAI顶会上了,可谓真了不起。文本用了一个网络解决了对不同比例,纵横比图片的文本检测,训练的方式是端到端的,最开始还用了16年人工合成的数据集进行预训练,合成训练集的文章为《Synthetic D...转载 2018-02-28 15:53:03 · 886 阅读 · 0 评论 -
SSD 论文(1)阅读笔记简化
文章转自https://www.cnblogs.com/xuanyuyt/p/7447111.htmlhttp://www.cnblogs.com/xuanyuyt/p/7222867.html一. 算法概述本文提出的SSD算法是一种直接预测目标类别和bounding box的多目标检测算法。与faster rcnn相比,该算法没有生成 proposal 的过程,这就极大提高了检测速度。针对不同大...转载 2018-02-26 15:26:39 · 529 阅读 · 0 评论 -
Deep Learning(深度学习)之(九)词向量的内部任务评价和外部任务评价方法
关键词:内部任务评价(Intrinsic Evaluation)和 外部任务评价(extrinsic evaluations)。超参数影响下的类比评价任务。人类决策和词向量距离的相关性。结合上下文处理歧义。窗口分类。这个课堂笔记我们将会对词向量(也就是词嵌入)的内部任务评价和外部任务评价方法进行讨论。主要的内容是单词类比(word analogies)技术,我们会把它当做内部任务评价的技术原创 2016-06-21 10:15:54 · 10018 阅读 · 2 评论 -
Deep Learning(深度学习)之(十)神经网络在机器学习分类任务中的应用
关键词:神经网络,正向计算,反向传播,神经元,最大化间隔损失,梯度检验, 参数的哈维初始化, 学习速率, ADAGRAD(自适应梯度法)这是斯坦福CS224d深度学习与自然语言处理的第3课,这节课先会介绍单层和多层神经网络和它们在机器学习分类任务中的应用, 接着介绍如何利用反向传播算法来训练这些神经网络模型(在这个方法中,我们将利用偏导数的链式法则来层层更新神经元参数)。在给出神经网络以及转载 2016-06-21 10:26:20 · 11333 阅读 · 0 评论 -
Deep Learning(深度学习)之(七)高维数据的机器学习
高维数据的机器学习 Anima Anandkumar 是加州大学埃尔文分校电子工程与计算机科学系的教职人员。她的研究主要集中于『概率隐变量模型』以及『张量算法』的分析和设计,及其在高维数据学习上的应用。核心结论 * 现代的机器学习涵盖了大量的数据以及变量,构成了高维数据问题。 * 张量方法在处理这种高维数据的机器原创 2016-06-20 13:42:05 · 28221 阅读 · 1 评论 -
Deep Learning(深度学习)之(五)神经网络训练中的高效BP(反向传播算法)
人工神经网络的能力大家都是有目共睹的,在机器学习领域可是占据了一定的地位。这点应该毋庸置疑。它可以建模任意复杂的函数。虽然能力大了有时候也不是好事,因为容易过拟合。但能力小了,就没办法建模复杂的函数,也就是给你数据,你也消化不了。关于神经网络的介绍,这里就不说了,发展了那么久,介绍神经网络的书籍或者资料太多了。还记得我们要干嘛吗?我们想要知道训练神经网络的Tricks!众所周知(如果你不知道,就先原创 2016-06-18 09:03:26 · 11785 阅读 · 0 评论 -
Deep Learning深度学习之(五)CNN卷积神经网络
本文的论文来自:Notes on Convolutional Neural Networks, Jake Bouvrie。 这个主要是CNN的推导和实现的一些笔记,再看懂这个笔记之前,最好具有CNN的一些基础。这里也先列出一个资料供参考:[1] Deep Learning(深度学习)学习笔记整理系列之(七)[2] LeNet-5, con转载 2016-06-17 16:04:15 · 4344 阅读 · 0 评论 -
Deep Learning(深度学习)之(二)Deep Learning的基本思想
五、Deep Learning的基本思想 假设我们有一个系统S,它有n层(S1,…Sn),它的输入是I,输出是O,形象地表示为: I =>S1=>S2=>…..=>Sn => O,如果输出O等于输入I,即输入I经过这个系统变化之后没有任何的信息损失(呵呵,大牛说,这是不可能的。信息论中有个“信息逐层丢失”的说法(信息处理不等式),设处理a信息得到b,再对b处理得到c,那么可以证原创 2016-06-17 15:45:35 · 8205 阅读 · 0 评论 -
Deep Learning(深度学习)之(三)Deep Learning的常用模型或者方法
九、Deep Learning的常用模型或者方法9.1、AutoEncoder自动编码器 Deep Learning最简单的一种方法是利用人工神经网络的特点,人工神经网络(ANN)本身就是具有层次结构的系统,如果给定一个神经网络,我们假设其输出与输入是相同的,然后训练调整其参数,得到每一层中的权重。自然地,我们就得到了输入I的几种不同表示(每一层代表一种表示),这些表原创 2016-06-17 15:50:58 · 42480 阅读 · 0 评论