==============Nonlinear hypothesis==============
1.当特征多的时候(100),为了非线性的分割,要引入2次项,甚至3此项,
造成特征膨胀。

2.当特征“爆炸”时,回归计算复杂度太大,如汽车分类小例:



=================Neurons
and the Brain====================
1.大脑神经图,注意输入、输出

2.单个神经元

3.神经网络,隐含层(不涉及输入X,输出Y)

4.神经网络各层的计算

================Model Representation==================
1.向前传输的向量计算表示

2.神经网络的特点:但看后两层,和Logistic回归没区别。但正因为
有前两层,相当于对输入特征做了一次Logistic回归拟合。然后再次
到最后一层Logistic回归,好处是不用写复杂的多项式特征,减少计算量。

3.多层的隐含层

4.简单小例



5.小例子组合

6.三层特征,逐次提取识别

==================Multiclass Classification===================
1.分4类,4个输出层


本文探讨了非线性假设下的特征膨胀问题,并介绍了神经网络的基本构成及其如何通过多层隐含层来简化复杂的特征组合过程。同时,文章还讨论了神经网络在多分类任务中的应用。
7万+

被折叠的 条评论
为什么被折叠?



