
数学基础
文章平均质量分 56
城俊BLOG
从此好好码代码。。
展开
-
[双目测距原理] 双目摄像头如何估计深度
相机焦距f,相机之间距离(基线)b,右上角为目标位置,相机离目标垂直距离(所求目标距离相机的深度)为z,目标的水平坐标为x于是按照三角形的原理有:zf=xxl=x−bxr\frac{z}{f}=\frac{x}{x_{l}}=\frac{x-b}{x_{r}}fz=xlx=xrx−b化简得到深度:z=f∗bxl−xrz=\frac{f*b}{x_{l}-x_{r}}z=xl−xrf∗b相应地,还能得到目标的横坐标x和纵坐标y的值。https://zhuanlan.zhihu.c.原创 2021-06-14 21:46:26 · 2517 阅读 · 0 评论 -
熵、交叉熵、条件熵、互信息
关于softmax和交叉熵:probability,odds,logit, softmax, logSoftmax,交叉熵熵:随机事件X有n种可能发生的情况,每种情况发生的概率为pip_ipiH(X)=−∑i=1npilog(pi)H(X)=-\sum_{i=1}^{n} p_ilog(p_i)H(X)=−i=1∑npilog(pi)交叉熵:度量两个概率分布p、q之间的差异,yiy_iyi服从q分布,pip_ipi服从p分布Ci=−∑j=1Cyjlog(pj)C_i = -\sum原创 2021-05-27 13:49:25 · 501 阅读 · 0 评论 -
Hinge loss和Focal loss
Hinge loss:用途:减少类内差异,增大类间差异思想:Loss=max(0,1−y∗y^)Loss = max(0,1-y*\hat{y})Loss=max(0,1−y∗y^)yyy和y^\hat{y}y^一个是真实值(0或1),一个是预测值(0-1之间的概率)。这个loss最小值为0,最大值为1。Focal loss:用途:解决难样本与容易样本的不平衡问题(不是正负样本的不平衡问题)思想:减少置信度高的样本的loss(这些样本分类概率p很高,用1-p和它的loss相乘),因为觉原创 2021-05-26 13:35:57 · 411 阅读 · 0 评论 -
机器学习machine learning扫盲
svm可以处理回归问题吗?可以。svm是为了训练出超平面y=wx+by=wx+by=wx+b,回归的时候直接使用y做为预测值逻辑回归解决回归问题还是分类问题?分类问题线性回归公式:y=wT∗x+by=w^T*x+by=wT∗x+bsigmoid函数:y=11+e−xy = \frac{1}{1+e^{-x}}y=1+e−x1逻辑回归公式(同时结合线性回归和逻辑回归):y=11+e−wTxy=\frac{1}{1+e^{-w^Tx}}y=1+e−wTx1...翻译 2021-05-26 00:16:05 · 119 阅读 · 0 评论 -
几种人脸识别的loss和改进思路
https://resources.wolframcloud.com/NeuralNetRepository/resources/2D-Face-Alignment-Net-Trained-on-300W-Large-Pose-Datahttp://www.cbsr.ia.ac.cn/users/xiangyuzhu/projects/3DDFA/Database/300W-LP/main.htm[300W-3D]: https://drive.google.com/file/d/0B7OEHD3T4e原创 2020-09-07 15:17:12 · 1219 阅读 · 0 评论 -
McNemar假设检验
McNemar检验用于比较两个模型的差异性,不能说明哪个模型更准确。0假设是没有显著差异。检验统计量(p)是0假设发生的概率。指定显著度为alpha。p>alpha,接受0假设,没有显著差异。反之拒绝。McNemar 检验统计量符合自由度为1的卡方分布 (自由度为K的卡方分布为K个高斯分布的随机变量的平方和服从的分布)http://www.atyun.com/25532.html卡方分布:https://zh.wikipedia.org/wiki/%E5%8D%A1%E6%96%B9%E5%翻译 2021-04-28 14:50:04 · 4719 阅读 · 0 评论 -
probability,odds,logit, softmax, logSoftmax,交叉熵
probability:事件发生的概率odds: 事件发生的概率和不发生的概率之比 p/(1-p)logit:odds 的对数 log[p/(1-p)]https://zhuanlan.zhihu.com/p/27188729原创 2021-04-26 11:40:12 · 838 阅读 · 0 评论 -
反向传播、链式法则
链式法则用的是点积(内积),不是矩阵乘积(外积)https://mathinsight.org/chain_rule_multivariable_special_cases原创 2021-04-19 19:53:17 · 917 阅读 · 1 评论 -
点积(点乘、数量积、内积)和叉积(叉乘、向量积、外积)
点积(dot product)内积(inner product)数量积(scalar product)点积是内积的特例,内积是数量积的特例。\vec {a}\vec a \cdot \vec b = 0\vec a \cdot \vec b = 0点乘:https://blog.youkuaiyun.com/xingxinmanong/article/details/78528791...原创 2021-03-21 14:41:58 · 14311 阅读 · 0 评论 -
mxnet各种归一化:batch norm, l2 norm和mxnet.nd.L2Normalization
https://mxnet.apache.org/versions/1.6/api/r/docs/api/mx.nd.norm.htmlhttps://mxnet.apache.org/versions/1.6/api/r/docs/api/mx.nd.L2Normalization.html原创 2021-03-09 22:35:32 · 707 阅读 · 0 评论 -
手动求梯度,二范数的偏导,二范数平方的偏导
二范数的偏导二范数平方的偏导d(||x||^2)/d(x) = 2x原创 2021-03-08 16:27:10 · 5124 阅读 · 0 评论 -
协方差矩阵
输入矩阵1 axb输入矩阵2 cxd协方差矩阵shape 为 (a+c) x (a+c)示例:>>> b = np.random.random((2,100))>>> a = np.random.random((3,100))>>> np.cov(a,b).shape(5, 5)原创 2021-01-29 17:37:27 · 179 阅读 · 0 评论 -
numpy.median
作用是求中位数。注意求中位数之前会先进行从小到大排序排序的结果中,中间位置的才是中位数。如果是奇数个,中位数就是排序后的中间那个数。如果是偶数个,中位数就是排序后的中间两个数的平均...原创 2020-04-10 11:11:27 · 784 阅读 · 0 评论 -
贝叶斯统计bayes statistics
1,贝叶斯统计的关键特点:人们根据新的观测改变了对一个事件发生概率的信念(belief)举例:假设某天太阳没有升起,那么你很有可能觉得第二天太阳也不会升起。但如果第二天太阳又正常升起了,你对太阳会再次罢工的概率预期也会比之前高很多。这就是基于对事件的观测改变了自己对事件发生概率的信念。大体的过程是:前期我们认为的一个事件发生的概率(先验概率,事件还未发生)-》新的观测-》我们更新了自己...原创 2019-07-19 10:26:43 · 7205 阅读 · 1 评论 -
T分布
样本不足30——选择T分布样本超过30——样本平均值符合正态分布原创 2019-03-13 15:09:27 · 1460 阅读 · 0 评论 -
总体标准差-样本标准差
总体标准差和样本标准差公式:解释:1,求一组数据的标准差,该组数据就是总体,此时是求总体标准差,公式中分母为n;2,总体太大或未知,只能每次抽取样本,此时是求样本标准差,分母为n-1。图片来源:https://www.cnblogs.com/webRobot/p/7722820.html...原创 2019-03-19 15:18:46 · 28067 阅读 · 1 评论