Machine Learning (4) Motivations & Neural Networks

本文深入探讨神经网络的动机与模型表示。首先介绍了神经元的基本工作原理,随后详细阐述了神经网络的模型表示,包括输入、隐藏和输出层的结构,以及权重矩阵在计算中的作用。此外,通过示例展示了如何使用神经网络实现逻辑运算,包括AND、NOR、OR以及XNOR,并探讨了神经网络在多类分类问题中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这一节将开始介绍关于神经网络的相关内容。

1. Motivations [动机]:(略)。

2. Neural Networks [神经网络]:

2.1 Model Representation (1) [ 模型表示法(1]:

2.1.1 让我们从非常简单的神经元的机理来讨论这个问题,神经元可以看做是一个计算单元,其从树突)[Dendrites]接收输入,这些输入可以被当做带电输入(被称为“spikes [尖波]”),相应的输出从axons [轴突]输出带电尖波。

2.1.2 在我们的模型中,我们的树突就像输入的特征x1、x2、x3等,输出是我们的假设函数的结果。在这个模型中,我们的x0输入节点有时被称为“Bias Unit [偏差(置)单元]”,它的值总是等于1。

2.1.3 此外,在神经网络中,我们将使用与分类问题相同的逻辑函数,但我们有时称它为sigmoid(逻辑)激励函数。这种情况下,“theta”参数有时也被称为“权重”。形象第一种简单的示意图表示如下:

2.1.4 输入节点(层1)也称为“输入层”,进入另一个节点(第二层)后最终输出假设函数,即所谓的“输出层”。在输入和输出层之间的中间层被称为“隐藏层”。在本例中,我们将这些中间或“隐藏”层节点标记为a0方……an方,并将其称为“Activation Units [激励单元]”。

2.1.5 具体来说,某隐藏层将会是如下一形式。而每个激励Node [节点] 的值由如下二得到。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值