图像处理的一些相关知识
logistic transform
一般的logistic function
- 逻辑回归的向量化实现样例 - Ufldl
- 可向量化编程
- 分类问题中常用,代替开关函数
IQA算法中使用的扩展的logistic function
- 公式1
f(x)=τ1−τ21+exp(x−τ3τ4)+τ2
τ1,τ2,τ3,τ4是使得预测值和DMOS、MOS值的MSE最小的参数 - 公式2
f(x)=β1(12−11+exp(β2(x−β3)))+β4∙x+β5
β1,β2,β3,β4,β5是使得预测值和DMOS、MOS值的MSE最小的参数 - matlab realization
- 资源:
- 非线性拟合lsqcurvefit、nlinfit - 世慷的日志 - 网易博客
- matlab help nlinfit()
code
- 资源:
梯度下降、最小二乘法
资料
- 机器学习经典算法之—–最小二乘法 - iamccme - 博客园
- 随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比 - 玉心sober - 博客频道 - youkuaiyun.com
- 李航. 统计学习方法[J]. 清华大学出版社, 北京, 2012.
最小二乘法和梯度下降法的关系
相同
- 本质相同:两种方法都是在给定已知数据(independent & dependent variables)的前提下对dependent variables算出出一个一般性的估值函数。然后对给定新数据的dependent variables进行估算。
- 目标相同:都是在已知数据的框架内,使得估算值与实际值的总平方差尽量更小(事实上未必一定要使用平方),估算值与实际值的总平方差的公式为:
不同
- 实现方法和结果不同:最小二乘法是直接对求导找出全局最小,是
非迭代法
。而梯度下降法是一种迭代法
,先给定一个,然后向下降最快的方向调整,在若干次迭代之后找到局部最小。梯度下降法的缺点是到最小点的时候收敛速度变慢,并且对初始点的选择极为敏感,其改进大多是在这两方面下功夫。
性能评估
皮尔森相关系数(Pearson correlation coefficient)
- 统计相关系数(1)——Pearson(皮尔逊)相关系数及MATLAB实现
- X、Y的皮尔森相关系数的含义
- 当相关系数为0时,X和Y两变量无关系。
- 当X的值增大(减小),Y值增大(减小),两个变量为正相关,相关系数在0.00与1.00之间。
- 当X的值增大(减小),Y值减小(增大),两个变量为负相关,相关系数在-1.00与0.00之间。
- 公式
- 试用范围
- matlab 实现
- matlab函数 corr()
- 自写函数
斯皮尔曼秩相关系数(SROOC)
肯德尔等级相关系数
可操纵金字塔变换(steerable pyramid transforms)
广义高斯概率分布
基本概念
fX(x:μ,σ,γ)=ae−[b|x−μ|]γ
μ,σ2,γ分别是期望,方差和形状系数,γ=2时,高斯分布,γ=1时,拉普拉斯分布
参数拟合与估计
朴素贝叶斯模型
文献
箱状图
箱形图于1977年由美国著名统计学家约翰·图基(John Tukey)发明。它能显示出一组数据的最大值、最小值、中位数、下四分位数及上四分位数。
举例
- 这组数据显示出:
- 最小值(minimum)=5
- 下四分位数(Q1)=7
- 中位数(Med)=8.5
- 上四分位数(Q3)=9
- 最大值(maximum )=10
- 平均值=8
- 最大值与最小值产生于这个区间。区间外的值被视为outlier显示在图上.
- mild outlier = 3.5
- extreme outlier = 0.5
离散余弦变换 DCT
一维DCT变换
一维DCT变换时二维DCT变换的基础,所以我们先来讨论下一维DCT变换。一维DCT变换共有8种形式,其中最常用的是第二种形式,由于其运算简单、适用范围广。我们在这里只讨论这种形式,其表达式如下:
其中,f(i)为原始的信号,F(u)是DCT变换后的系数,N为原始信号的点数,c(u)可以认为是一个补偿系数,可以使DCT变换矩阵为正交矩阵。
二维DCT变换
二维DCT反变换
分块DCT变换
在实际的图像处理中,DCT变换的复杂度其实是比较高的,所以通常的做法是,将图像进行分块,然后在每一块中对图像进行DCT变换和反变换,在合并分块,从而提升变换的效率。具体的分块过程中,随着子块的变大,算法复杂度急速上升,但是采用较大的分块会明显减少图像分块效应,所以,这里面需要做一个折中,在通常使用时,大都采用的是8*8的分块。