深度学习的深体现在网络的深度上,其实可以把每一个神经元想象成一个函数f(wx)
就好了,也就是给定一个带权重的输入x
,输出一个y
值,并且这个函数往往是一个非常简单的非线性函数
根据不同的输入的重要程度分配不同的权重,将输入与权重相乘之后,再将这些值相加,并增加一个称为偏置的 b
。但是这样形如线性方程 z = mx+b
.那么神经元与线性回归的区别在哪呢?
哈哈,原来是通过激活函数或传递函数f(), 引入了非线性因素,输出结果为 y=f()
深度学习的深体现在网络的深度上,其实可以把每一个神经元想象成一个函数f(wx)
就好了,也就是给定一个带权重的输入x
,输出一个y
值,并且这个函数往往是一个非常简单的非线性函数
根据不同的输入的重要程度分配不同的权重,将输入与权重相乘之后,再将这些值相加,并增加一个称为偏置的 b
。但是这样形如线性方程 z = mx+b
.那么神经元与线性回归的区别在哪呢?
哈哈,原来是通过激活函数或传递函数f(), 引入了非线性因素,输出结果为 y=f()