神经网络可以实现非线性分类和线性分类。(?)
反向传播算法在进行误差更新时,神经元的误差更新与哪些因素有关?
反向传播的作用
构造损失函数的目的:1、通过梯度下降算法最小化损失函数2、最大程度的拟合模型参数
knn算法中k不同取值影响分析
当一个模型训练完后若发现训练集上的loss非常高,请问如何在不对代码进行全面排查的前提下,以最快的速度定位是模型本身的拟合能力不足还是代码的实现存在某种错误?
假设我们在训练一个使用sigmoid激活函数的全连接神经网络。在对其权重进行初始化时,为什么一般会倾向让初始值的绝对值偏小?如果这样为何不直接用0进行初始化?
在cnn中梯度不稳定指的是什么?在神经网络训练过程中,为什么会出现梯度消失的问题?如何防止?
为什么在神经网络中使用交叉熵而不是均方差作为误差函数?