机器学习
wow844705296
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
逻辑回归
一、假设函数当处理分类问题时,尤其是二分类问题,应该限定预测的结果为0⩽y⩽10\leqslant y \leqslant 1,所以需要一个分类函数把结果正好限定在[0,1]内,逻辑函数g(z)=11+e−zg(z)=\frac{1}{1+e^{-z}}正是这样的一个函数 如果我们假设$z=\theta^Tx$,那么 hθ(x)=11+e−θTx h_{\theta}(x)=\frac{1}原创 2017-03-29 09:52:26 · 244 阅读 · 0 评论 -
机器学习
一、什么是机器学习?两个定义: - 计算机不需要明确的程序而是自主的去学习 一种旧的传统的定义 一个计算机程序能够从经验E中学习(学习任务是T,学习的表现用P衡量),如果这个程序在任务T与表现衡量P 下,可以通过经验E得到改进。 ##### 举例——西洋棋游戏: E=玩了许多局游戏的经验 T=玩西洋棋的任务 P=下局游戏程序会赢的概率 二、监督学习 定义:给出一个算法,需要全部数原创 2017-03-23 14:54:51 · 334 阅读 · 0 评论 -
线性回归
线性回归一、线性回归 一种简单的拟合函数为线性拟合,如hθ(xi)=θ1(xi)+θ0h_{\theta}(x_{i})=\theta_{1}(x_{i})+\theta_{0} 如何检测得到的$h_{\theta}(x)$是不是我们最优的拟合函数呐,因此我们需要检查该函数的拟合性能,代价函数 用来检测分类器的性能,如下面公式所示的一种: J(θ0,θ1)=12m∑mi=1(hθ(xi)−原创 2017-03-24 10:52:22 · 470 阅读 · 0 评论 -
神经网络(1)一些概念
Sigmoid11+exp−(∑jwjxj+b) \frac{1}{1+\exp-(\sum_j w_j x_j+b)} sigmoid与感知机相似性,当∑jwjxj+b\sum_j w_jx_j+b 很大时exp−(∑jwjxj+b)\exp-(\sum_j w_j x_j+b)则趋近于0,Sigmoid整体趋近于1,对0-1的范围来说也是一个非常大的数。Neural Network在数字图像原创 2017-06-23 21:34:48 · 334 阅读 · 0 评论 -
神经网络2-反向传播
向量表示假设我们用wljkw_{jk}^l表示l−1l-1层中的第k个神经元到ll中第j个神经元的权重。bljb_j^l表示第l层中第j个神经元的偏置。alja_j^l表示第l层第j个神经元的输出。则: alj=σ(∑kwljkal−1k+blj) (2.1) a^{l}_j = \sigma\left( \sum_k w^{l}_{jk} a^{l-1}_k + b^l_j \righ原创 2017-06-23 21:43:04 · 313 阅读 · 0 评论
分享