
数学
monkey-PI
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
最优化
文章目录线性规划非线性规划无约束非线性规划直接法解析法最速下降法牛顿法共轭梯度法有约束非线性规划罚函数法外点法内点法乘子法二次规划线性规划非线性规划无约束非线性规划直接法解析法最速下降法牛顿法共轭梯度法有约束非线性规划罚函数法外点法内点法乘子法二次规划...原创 2019-08-22 21:29:51 · 553 阅读 · 0 评论 -
FFT
文章目录卷积卷积定理循环卷积1卷积卷积定理循环卷积如果B是一个block-circulant 矩阵,则:if this convolution is periodic, A(PSF) is then a (block) circulant matrixfPSF_decon= (fft2(ifftshift(PSF)));如果滤波器在时间/空间中居中,则需要在进行FFT之前...原创 2019-09-07 12:50:27 · 246 阅读 · 0 评论 -
Low-Rank-Hankel Matrix
memp二维的PSF可近似为一个高斯函数:(1)f(x,y)=12πσ2∗exp−(x2+y2)/2σ2f(x,y)=\frac{1}{2\pi\sigma^2}*\exp^{-\frac{(x^2+y^2)/2}{\sigma^2}} \tag{1}f(x,y)=2πσ21∗exp−σ2(x2+y2)/2(1)探测器成像可以表示为:ci是某一点的强度;(2)S(u,v)=∬...原创 2019-09-07 12:49:31 · 1534 阅读 · 1 评论 -
backtracking line Serach
pk是梯度下降的方向原创 2019-09-07 12:48:16 · 247 阅读 · 0 评论 -
erf误差函数
erf:http://mathworld.wolfram.com/Erf.html证明:https://math.stackexchange.com/questions/1746677/error-function-relation-to-the-normal-cumulative-distribution-function利用公式搜索相关信息网站:http://www.searchon...原创 2019-09-07 12:43:55 · 2204 阅读 · 0 评论 -
autograd
自动微分下面用反正切函数作为例子:import autograd.numpy as npfrom autograd import value_and_grad import matplotlib.pyplot as pltg = lambda w: np.tanh(w)w=np.linspace(-5,5,20)c = g(w)plt.plot(c)plt.showdgd...原创 2019-09-01 19:58:37 · 739 阅读 · 0 评论 -
机器学习---集成学习(三个臭皮匠顶个诸葛亮)
基本思路群体智慧:如果能从所有的科学家中选择一群科学家组成一个团队,并且团队中的每个科学家都略强于随机选择的一个科学家,那么有理由相信这个科学家团队能比单个科学家做出更好的决定。这样的群体智慧用到机器学习的学习器上也成立,集合多个个体学习器的方法称为集成学习。目前集成学习的流派主要有两种:baggingboostingbagging有放回的随机抽样:自主采样法(bootstap ...原创 2019-08-22 15:23:43 · 666 阅读 · 0 评论 -
机器学习---朴素贝叶斯分类
贝叶斯决策论对于分类任务而言,假设有训练数据集D={(x1,y1),(x2,y2),...,(xm,ym),xi=(xi1,xi2,...,xin),y∈Y={c1,c2,...,cK}}D=\{(x_1,y_1),(x_2,y_2),...,(x_m,y_m),x_i = (x_{i1},x_{i2},...,x_{in}), y\in Y=\{c_1,c_2,...,c_K\}\}D={(x...原创 2019-08-16 21:02:51 · 172 阅读 · 0 评论 -
sklearn
LabelEncoder回归树的输入必须是数值型, LabelEncoder可以将非数值型的特征编码到数值型。fit(x):相当于先把x装进le里面,然后transform(y)再对y排序。fit_transform则是同时做了这两步。...原创 2019-08-25 17:54:15 · 101 阅读 · 0 评论 -
机器学习---回归决策树
分类树:回归树:决策树不仅可以用于分类,也可以用于回归预测。一颗回归树对应着输入空间(即特征空间)的一个划分 以及 在划分的单元上的输出值,如下图。横轴代表输入空间,纵轴代表输出值。假设将输入空间划分为M个单元R1,R2,...,RMR_1,R_2,...,R_MR1,R2,...,RM,并且在每个单元RmR_mRm有一个固定的输出值cmc_mcm,于是,回归树的模型可表...原创 2019-08-20 21:40:50 · 489 阅读 · 0 评论 -
xgboost
xgboost转载 2019-08-24 13:37:52 · 108 阅读 · 0 评论 -
机器学习---支持向量机
参考:http://www.blogjava.net/zhenandaci/archive/2009/03/06/258288.htmlhttp://www.ishenping.com/ArtInfo/937196.htmlhttps://www.jianshu.com/p/a3d9f75546b3完美复制吴恩达视频:https://cloud.tencent.com/develop...原创 2019-08-13 21:50:24 · 216 阅读 · 0 评论 -
机器学习---逻辑回归
分类分类任务如下,二分类如图左:判别出圆和叉;多分类如右:判别出三角形、叉和矩阵。多分类任务可以理解为二分类任务的叠加,比如先分别出三角形和其它,再分别叉和其它,最后分别出矩阵和其它,最后叠加在一起即可。Logistic regressionLogistic regression 被称为逻辑回归或是对数几率回归,但它的实际目的是处理分类问题,线性回归是拟合数据做预测,分类任务则是对数据进...原创 2019-08-05 19:41:03 · 157 阅读 · 0 评论 -
机器学习---神经网络
神经元模型M-P神经元模型:当前的神经元负责处理输入信号∑i=1nwixi\sum_{i=1}^{n}w_ix_i∑i=1nwixi,其模拟了生物神经网络中的电位阈值激活,通过激活函数fff判断总输入是否大于阈值来决定输出yyy:y=f(∑i=1nwixi−θ)y=f( \sum_{i=1}^{n}w_ix_i - \theta)y=f(i=1∑nwixi−θ)理想的yyy是...原创 2019-08-07 23:30:59 · 209 阅读 · 0 评论 -
机器学习入门---线性回归
代价函数最小化或最大化的函数称为目标函数(objective function),当我们对其最小化时,也把它称为代价函数(cost function) 、损失函数(loss function)或误差函数(error function),不过误差函数一般指的是erf(x),严格来说损失函数一般指单个训练样本,代价函数则针对全体训练集。总的来说,我们是需要得到使代价函数最小化的参数。代价函数的3...原创 2019-08-05 00:37:50 · 340 阅读 · 0 评论 -
离散傅里叶变换---DFT
https://www.bogotobogo.com/Matlab/Matlab_Tutorial_DFT_Discrete_Fourier_Transform.phphttps://zh.wikipedia.org/zh-hans/离散傅里叶变换维基百科文章解释的真是非常简洁清晰有力。但我一开始理解的时候,有个地方则不能很好的理解。连续信号的傅里叶变换:X(jw)=∫−∞∞x(t)e−...原创 2019-08-04 00:13:02 · 721 阅读 · 0 评论 -
Bspline
样条函数我们插值的时候,常见的高次多项式插值会遇到龙格现象:故一般插值避免超过7次的高次插值;所以有分段线性插值,分段线性插值光滑性差,即节点处可能不连续;分段三次埃尔米特插值虽然一阶光滑,但插值条件过多;三次样条插值函数就是分段三次多项式,在每个节点处有二阶连续导数,在实际中被广泛使用。b样条其中bj,n−1(t)b_{j,n-1}(t)bj,n−1(t)就是其系数,m+1...原创 2019-06-29 16:01:24 · 1595 阅读 · 0 评论 -
ADMM
背景知识等式约束优化问题:fff是凸函数,2.1的拉格朗日项为:其对偶函数为:y是拉格朗日乘子项的对偶变量则原问题的对偶问题变为:在强凸性质下,原问题和对偶问题的最优解是一样的。我们可以从对偶的最优点y∗y^*y∗恢复出原优化问题的最优点x∗x^*x∗:利用梯度上升法:上述条件很严苛,f(x)f(x)f(x)要求严格凸,并且α\alphaα选择要比较合适,一般应用...翻译 2019-06-11 16:55:16 · 9038 阅读 · 0 评论 -
小波提取背景
安装原创 2019-09-12 10:15:25 · 330 阅读 · 0 评论