深度学习的深体现在网络的深度上,其实可以把每一个神经元想象成一个函数f(wx) 就好了,也就是给定一个带权重的输入x,输出一个y值,并且这个函数往往是一个非常简单的非线性函数
根据不同的输入的重要程度分配不同的权重,将输入与权重相乘之后,再将这些值相加,并增加一个称为偏置的 b 。但是这样形如线性方程 z = mx+b .那么神经元与线性回归的区别在哪呢?
哈哈,原来是通过激活函数或传递函数f(), 引入了非线性因素,输出结果为 y=f()
本文探讨深度学习中神经元的功能与线性回归的区别,重点解析通过激活函数引入非线性因素,使模型能够处理复杂的数据关系。
深度学习的深体现在网络的深度上,其实可以把每一个神经元想象成一个函数f(wx) 就好了,也就是给定一个带权重的输入x,输出一个y值,并且这个函数往往是一个非常简单的非线性函数
根据不同的输入的重要程度分配不同的权重,将输入与权重相乘之后,再将这些值相加,并增加一个称为偏置的 b 。但是这样形如线性方程 z = mx+b .那么神经元与线性回归的区别在哪呢?
哈哈,原来是通过激活函数或传递函数f(), 引入了非线性因素,输出结果为 y=f()
1893
1486

被折叠的 条评论
为什么被折叠?