本篇的笔记将结合前面三篇的笔记来阐述逻辑回归中应用到的技术和技巧,包括https://blog.youkuaiyun.com/chenleiyfk/article/details/87819794介绍的数据处理、激活函数和成本函数的使用技巧;https://blog.youkuaiyun.com/chenleiyfk/article/details/87926932介绍的梯度下降和https://blog.youkuaiyun.com/chenleiyfk/article/details/88032338介绍的前向传播和反向传播。
神经网络的核心思维-特征向量,69-80行的注释已经介绍的很清楚了,特征向量的维度是4,91行将维度降为了2。92行是输出结果的向量表示。这里的表示和学习笔记中介绍到的转置是一样的,为了编程和运算的便利,使用了转置。109行对输出结果的向量处理也是为了编程和运算的便利。
还记得介绍逻辑回归符号惯例时说的么?在符号上要注意的一点是当对神经网络进行编程实现时经常会让参数w和参数b分开用的技巧,定义一个额外的特征称并且使它等于1。这在113行体现了出来,记住这里使用了转置。表示(w^T) x+b的值的计算看下56行即可。
数据处理的总结,特征向量的表示、编程和运算使用的转置、特征向量X与特征权重W以及偏置b的计算实现,序列对应于69-80行、109行和113行、56