- 博客(15)
- 收藏
- 关注
原创 伪似然(Pseudo Likelihood)
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、伪似然1.估计2.条件1.仅假设条件均值情况下的伪似然估计1.假设条件均值和条件方差情况下的伪似然估计二、拟似然1.引入库2.读入数据总结前言提示:这里可以添加本文要记录的大概内容:例如:随着人工智能的不断发展,机器学习这门技术也越来越重要,很多人都开启了学习机器学习,本文就介绍了机器学习的基础内容。提示:以下是本篇文章正文内容,下面案例可供参考一、伪似然伪似然是一种在真实分布未知,或基于误判分布的极大似然方
2021-09-29 21:04:41
5862
原创 经验似然方法
文章目录简单介绍一、经验分布二、经验似然求解过程总结简单介绍经验似然是一种非参数极大似然方法,而且是一种带限制条件的的非参数似然,在一般的正则条件下,有比较好的统计性质。一、经验分布 设X1X_1X1, X2X_2X2, …, XnX_nXn 是服从分布 F0F_0F0 的 iid 样本,则经验分布为Fn=1n∑i=1nI(Xi≤x), F_n = \frac{1}{n}\sum_{i=1}^nI(X_i\leq x),Fn=n1i=1∑nI(Xi≤x),其中,I(⋅)I
2021-09-14 18:29:27
4424
原创 Gram-Schmidt orthogonalization 格拉姆-施密特正交化
Gram-Schmidt orthogonalization 格拉姆-施密特正交化Gram-Schmidt orthogonalization 格拉姆-施密特正交化Gram-Schmidt orthogonalization 格拉姆-施密特正交化在空间Sk\mathcal{S}^kSk中,向量组 α1\alpha_1α1, α2\alpha_2α2, …,αk\alpha_kαk 线性无关,寻找一组正交向量基 β1\beta_1β1, β2\beta_2β2,…, βk\beta_kβk,
2021-03-21 16:19:58
625
原创 范数 norm
范数 normAbsolute-value normℓ1\ell_1ℓ1-范数(ℓ1\ell_1ℓ1-norm)Euclidean normℓp{\displaystyle \ell _{p}}ℓp-normuniform norm (ℓ∞\ell_{\infty}ℓ∞-norm)Absolute-value normIf xxx is one-dimensional vector spaces formed by the real or complex numbers, then∥x∥=∣x
2020-12-18 21:02:40
641
1
原创 Glivenko-Cantelli class & Donsker class
Glivenko-Cantelli class & Donsker classGlivenko-Cantelli classDonsker classX1,...,XnX_1,...,X_nX1,...,Xn是来自于可测空间 (X,A)(\mathcal{X},\mathcal{A})(X,A) 上概率分布 PPP 的随机样本。经验分布函数是观测值的离散均匀测度,记δx\delta_xδx 是 xxx 处的概率分布,则令 Pn=n−1∑i=1nδX\mathbb{P}_n = n^{-1}\
2020-10-14 00:59:38
1685
原创 Slutsky‘s Theorem
Slutsky's TheoremLet Xn,Yn{\displaystyle X_{n},Y_{n}}Xn,Yn be sequences of scalar/vector/matrix random elements. If Xn{\displaystyle X_{n}}Xn converges in distribution to a random element X{\displaystyle X}X and Yn{\displaystyle Y_{n}}Yn converges i
2020-10-11 15:20:40
4465
3
原创 Soft-thresholding (软阈值) operator
S(z,γ)=sign(z)(|z|−γ)+={z−rifz>0andγ<z,z+rifz<0andγ<z,0ifγ≥zS(z,\gamma)={\rm{sign}}(z)(|z|-\gamma)_+ = \left\{\begin{array}{rcl}z-r \quad if z>0 and \gamma
2018-09-02 22:27:27
3497
转载 Kullback-Leibler (KL) loss
Kullback-Leibler(KLKL\mathrm {KL}) loss (离散)For discrete probability distributions F(x)F(x)F(x) and G(x)G(x)G(x), the Kullback-Leibler (KLKL\mathrm {KL}) loss from F(x)F(x)F(x) to G(x)G(x)G(x) is def...
2018-08-30 15:26:33
2592
转载 Some formula
Stirling’s formula n!∼2πn−−−√(n/e)nn!∼2πn(n/e)n n! \sim \sqrt{2\pi n}(n/e)^n Sums of powers of integers Let S(k)n=1k+2k+...+nkSn(k)=1k+2k+...+nk S_n^{(k)} = 1^k+2^k + ...+n^k then S(k)n∼nk+1k+1...
2018-08-29 20:25:25
488
原创 矩阵求导
矩阵对标量求导: U=U(x,y) U=U(x,y) U = U(x,y) U is the matrix, x,y is the scalar.\ partial derivat\begin{equation} \frac{\partial |U|}{\partial x}=|U|tr(U^{-1}{\frac{\partial U}{\partial x..
2018-08-08 20:47:40
242
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人