
计算机视觉
文章平均质量分 87
写代码的柯长
Do the impossible.
See the invisible.
Raw! Raw!
Fight the power.
展开
-
子空间学习论文笔记02:Laplacian Eigenmaps for Dimensionality Reduction and Data Representation
这篇论文就不像是前面那篇图像分割的论文更像是计算机视觉的论文。这篇论文是属于机器学习领域并且更像于流形学习中的一类。但是基本方法还是很像前面那篇图像分割的论文,都是利用拉普拉斯矩阵来求其特征向量来实现我们降维的目的(也跟谱聚类的思想很类似),这里想简单的说明这篇利用Laplacian Eigenmaps来进行降维的基本算法流程: 降维的基本意思就是:我们现在有x_1,x_2,….,x_k的k个点原创 2018-01-24 16:01:02 · 1559 阅读 · 0 评论 -
子空间学习论文笔记01:Normalized Cuts and Image Segmentation
入门了解计算机视觉的一个分支——子空间学习,刚开始当然要从读论文开始。 最开始的一篇论文当然是图像分割的一个初始论文: Normalized Cuts and Image Segmentation ——Jianbo Shi and Jitendra Malik, Member, IEEE 这里做一下学习笔记。 这篇论文针对于图像分隔的问题提出了一个基于图的图原创 2018-01-20 19:15:41 · 5576 阅读 · 0 评论 -
l1正则化的稀疏表示和l2正则化的协同表示
这些天一直在看稀疏表示和协同表示的相关论文,特此做一个记录: 这篇文章将主要讨论以下的问题: 1.稀疏表示是什么? 2.l1正则化对于稀疏表示的帮助是什么,l0,l1,l2,无穷范数的作用? 3.稀疏表示的robust为什么好? 4.l2正则化的协同表示是不是比稀疏表示更好?好的,内容开始。稀疏表示是什么?稀疏表示的基本思想来自压缩感知,即我们能用最少的样本来代表测试数据...原创 2018-04-12 17:33:37 · 5179 阅读 · 0 评论 -
hypergraph learning(超图学习)
最近在研究graph learning,自然在接触到前沿的,自然学习到了超图学习。特在此做下记录: hypergraph learning的主要论文来自: Learning with Hypergraphs: Clustering, Classification, and Embedding Learning Hypergraph-regularized Attribute Predictor原创 2018-04-25 17:36:40 · 12189 阅读 · 5 评论