
机器学习
文章平均质量分 52
aiaiai010101
这个作者很懒,什么都没留下…
展开
-
【Pytorch】【代价函数】【损失函数】{ nn.CrossEntropyLoss()和nn.NLLLoss(),各种损失函数讲解,sigmoid cross-entropy}
https://blog.youkuaiyun.com/zwqjoy/article/details/96282788原创 2021-01-18 23:59:56 · 513 阅读 · 0 评论 -
caffe FCN的训练
https://blog.youkuaiyun.com/supe_king/article/details/54142973https://blog.youkuaiyun.com/supe_king/article/details/55657136https://blog.youkuaiyun.com/z13653662052/article/details/70949440参数详解:https://blog.youkuaiyun.com/q6...转载 2018-03-31 14:18:41 · 538 阅读 · 0 评论 -
机器学习:利用卷积神经网络实现图像风格迁移 (一)
相信很多人都对之前大名鼎鼎的 Prisma 早有耳闻,Prisma 能够将一张普通的图像转换成各种艺术风格的图像,今天,我们将要介绍一下Prisma 这款软件背后的算法原理。就是发表于 2016 CVPR 一篇文章,“ Image Style Transfer Using Convolutional Neural Networks”算法的流程图主要如下:总得来说,就是利用一个训转载 2017-03-03 21:47:37 · 3575 阅读 · 0 评论 -
再看FCN
时隔多日,重看FCN,很多地方有点模糊,这篇文章写的比较清晰。https://blog.youkuaiyun.com/xg123321123/article/details/53092154转载 2018-04-06 15:53:25 · 189 阅读 · 0 评论 -
caffe安装
https://blog.youkuaiyun.com/tina_ttl/article/details/51722983https://blog.youkuaiyun.com/u012780572/article/details/52759555http://www.cnblogs.com/cxyxbk/p/5902034.htmlhttp://www.cnblogs.com/denny402/p/5041060.ht...转载 2018-03-30 13:38:54 · 164 阅读 · 0 评论 -
caffe训练图片的问题及对策
这段时间一直在试图用caffe训练图像,今天终于成功了一次,虽然结果很差,不过毕竟能跑起来了。特此记录一下caffe训练过程中的种种问题,及解决办法。1、caffe安装中遇到的问题(1)安装caffe的过程中最初libcaffe和testcaffe总是加载失败,网上百度一搜,给出的解决方案居然是重启电脑,卧槽,重启之后,果然。。。没有鸟用。。。这个问题我已经忘记是怎么解决的了,但是原创 2017-03-27 22:09:51 · 455 阅读 · 0 评论 -
Deep learning发展历程中的监督学习和非监督学习
Deep learning系列(十五)有监督和无监督训练标签: 深度学习有监督训练无监督训练自编码器2015-11-02 19:59 3906人阅读 评论(0)收藏举报本文章已收录于:分类: deep-learning(14) 作者同类文章X版权声明:本文为博主原创文章,未经博主转载 2017-03-28 17:51:37 · 3158 阅读 · 0 评论 -
无监督学习(Unsupervised Learning)(主要是相关概念的网址链接)
1.Sparse Coding稀疏编码Sparse Coding稀疏编码UFLDL Sparse Coding2.Sparse Filtering稀疏滤波Deep Learning论文笔记之(二)Sparse Filtering稀疏滤波Unsupervised feature learning with Sparse Filtering3.Sparse Autoen转载 2017-03-28 17:57:24 · 491 阅读 · 0 评论 -
基于R-CNN的物体检测
基于R-CNN的物体检测原文地址:http://blog.youkuaiyun.com/hjimce/article/details/50187029作者:hjimce一、相关理论 本篇博文主要讲解2014年CVPR上的经典paper:《Rich feature hierarchies for Accurate Object Detection and Segmentation》,这篇转载 2017-04-11 18:51:57 · 256 阅读 · 0 评论 -
简易解说拉格朗日对偶(Lagrange duality)
引言:尝试用最简单易懂的描述解释清楚机器学习中会用到的拉格朗日对偶性知识,非科班出身,如有数学专业博友,望多提意见!1.原始问题假设是定义在上的连续可微函数(为什么要求连续可微呢,后面再说,这里不用多想),考虑约束最优化问题:称为约束最优化问题的原始问题。现在如果不考虑约束条件,原始问题就是:因为假设其连续可微,利用高中的知识,对求导数,然后令导数为转载 2017-06-15 20:01:42 · 212 阅读 · 0 评论 -
支持向量机通俗导论(理解SVM的三层境界)
支持向量机通俗导论(理解SVM的三层境界)作者:July 。致谢:pluskid、白石、JerryLead。说明:本文最初写于2012年6月,而后不断反反复复修改&优化,修改次数达上百次,最后修改于2016年11月。声明:本文于2012年便早已附上所有参考链接,并注明是篇“学习笔记”,且写明具体参考了pluskid等人的文章。文末转载 2017-06-15 22:09:51 · 437 阅读 · 0 评论 -
SMO算法(与另一篇结合看看,本篇讲的也不错)
SMO优化算法(Sequential minimal optimization)SMO算法由Microsoft Research的John C. Platt在1998年提出,并成为最快的二次规划优化算法,特别针对线性SVM和数据稀疏时性能更优。关于SMO最好的资料就是他本人写的《Sequential Minimal Optimization A Fast Algorithm for Tra转载 2017-06-16 20:58:19 · 245 阅读 · 0 评论 -
SMO算法(比较好的讲解)
转载请注明出处:http://blog.youkuaiyun.com/luoshixian099/article/details/51227754优快云−勿在浮沙筑高台本文力求简化SMO的算法思想,毕竟自己理解有限,无奈还是要拿一堆公式推来推去,但是静下心看完本篇并随手推导,你会迎刃而解的。推荐参看SMO原文中的伪代码。1.SMO概念上一篇博客已经详细介绍了SVM原理,为了方转载 2017-06-16 20:56:37 · 13829 阅读 · 3 评论 -
ML-KNN(多标签分类)
ML-kNN 多标签k近邻算法 MLL Week 1ML-kNN 多标签k近邻算法 MLL Week 1传统kNN多标签kNN 学习张敏灵老师的《ML-kNN: a lazy learning approach to multi-label learning》的学习笔记。传统kNN k近邻算法(k-Nearest Neighb转载 2017-09-27 15:20:32 · 10028 阅读 · 1 评论