
机器学习
counting_stars123
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
深度学习之二:神经网络的编程基础
2.18 逻辑回归损失函数 逻辑回归 逻辑回归需要预测的结果: y^=σ(wTx+b)\hat{y}=\sigma\left(w^{T} x+b\right)y^=σ(wTx+b),σ\sigmaσ是sigmoid函数。 σ(z)=σ(wTx+b)=11+e−z\sigma(z)=\sigma\left(w^{T} x+b\right)=\frac{1}{1+e^{-z}}σ(z)=σ(wTx+b)=1+e−z1 约定y^=p(y=1∣x)\hat{y}=p(y=1 \mid x)y^=p(y=1∣x原创 2020-06-29 01:19:41 · 420 阅读 · 0 评论 -
K-SVD详解
K- SVD :为稀疏表示设计过完备字典 1.稀疏表示 我们现在有: 一个样本向量y = [y1,y2,y3,…,yn]. 一个字典D (size:n×M) 其中,D中的每一列 称为D的原子。 稀疏表示就是要用D的原子的线性组合来将y表示出来。换句话说,就是要解y=Dx这个方程组,并且这个x向量中的0元素越多越好(0越多越稀疏)。 但是,因为D的列数M远大于行数n(这就是所谓的过完备),学过线性...原创 2020-03-15 04:37:45 · 4646 阅读 · 0 评论