Coursera ML笔记 -----week4 Neural Network -1

本文介绍了在面对复杂非线性问题时如何使用神经网络进行求解。详细解释了神经网络的基本结构,包括激活值、参数矩阵及其计算过程。此外还探讨了神经网络中向量化表示的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

欢迎点击作者原文地址

Neural Network

在实际的分类问题中,我们会碰到这样子的一种情况:
我们所要求解的问题的特征特别多,并且我们所做出的假设并不是一个线性的关系,而是一个复杂的高次方项的非线性问题。这个时候我们如果依旧用logistic regression的方法来做分类,那么效果可能会特别差,于是我们考虑用神经网络的方法来解决这些complex non-linear hypothesis的问题。

NN的生物学背景是参考人脑神经元中信息的传递过程:信息从神经元neura的树突进入,然后经过神经元的处理,从轴突传输。整个信息的传递过程就是:
树突—–> 神经元 ——> 轴突

——–
此处有重要内容,
省略见NN.txt
——————–

在NN中, a(i) 代表的是第i层的activation values(也就是特征的特征)
Θ(j) 代表的是第j层到第j+1层的参数矩阵,维度是 sj+1×(sj+1)
bias unit = 1

向量化表示

a(j)=a(j)1a(j)2a(j)n=g(z(j))=g(z(j)1)g(z(j)2)g(z(j)n)

z(j+1)=z(j+1)1z(j+1)2z(j+1)n=Θ(j)x=Θ(j)a(j1)=Θ(j)10x0+Θ(j)11x1+Θ(j)12x2+Θ(j)13x3Θ(j)20x0+Θ(j)21x1+Θ(j)22x2+Θ(j)23x3Θ(j)n0x0+Θ(j)n1x1+Θ(j)n2x2+Θ(j)n3x3

Θ(j)=Θ(j)10Θ(j)20Θ(j)30Θ(j)11Θ(j)21Θ(j)31Θ(j)12Θ(j)22Θ(j)32Θ(j)13Θ(j)23Θ(j)33x=x0x1x2x3

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值