深度学习笔记(润色)

1. 神经网络原理

1.1 神经元模型
  • 基本模型:单个神经元处理多个输入(x1,x2,…,xnx_1, x_2, \dots, x_nx1,x2,,xn),生成一个输出(yyy)。公式为:
    y=f(∑i=1nwixi+b) y = f\left( \sum_{i=1}^n w_i x_i + b \right) y=f(i=1nwixi+b)
    其中:
    • wiw_iwi 是权重(weight),bbb 是偏置(bias)。
    • fff 是激活函数(activation function),引入非线性。
  • 矩阵形式:将输入和权重表示为向量,更简洁:
    y=f(wx+b) y = f(\mathbf{w} \mathbf{x} + b) y=f(wx+b)
    这里 x=[x1,x2,…,xn]T\mathbf{x} = [x_1, x_2, \dots, x_n]^Tx=[x1,x2,,xn]T 是输入列向量(n×1n \times 1n×1),w=[w1,w2,…,wn]\mathbf{w} = [w_1, w_2, \dots, w_n]w=[w1,w2,,wn] 是权重行向量(1×n1 \times n1×n)。该模型也称为感知器(Perceptron)。
1.2 神经网络结构

神经网络由多层组成,称为多层感知机(Multi-Layer Perceptron, MLP)。典型结构包括:

  1. 输入层
    • 输入数据 x\mathbf{x}x(例如一个样本有2个特征,维度为 1×21 \times 21×2)。
    • 实践中需重构为列向量(x∈R2×1\mathbf{x} \in \mathbb{R}^{2 \times 1}xR2×1)。
  2. 隐藏层(至少一层或多层):
    • 例如,50维隐藏层:
      H=w1x+b1 \mathbf{H} = \mathbf{w_1} \mathbf{x} + b_1 H=w1x+b1
      其中 w1\mathbf{w_1}w1 是权重矩阵(维度 50×250 \times 250×2),b1b_1b
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值