cmu秋季的ml课程 deep learning 的生物学基础 --1

本文探讨了神经元的基本结构及信号传递过程,介绍了Rosenblatt的感知机模型,包括其工作原理、学习算法及其局限性。进一步讨论了多层感知机的概念,以及其在分类和模拟连续值函数中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  1. 神经元结构
    在这里插入图片描述
  • 信号通过树突(dendrites)传入神经元胞体(soma)
  • 信号通过轴突(axon)传递给其他的神经元 每个神经元只有一个轴突,成熟的神经元不经过细胞分裂

在这里插入图片描述

  • 如果神经元A重复激励神经元B,那么他激励神经元B的能力会变得更强,在生物学上表现的就是A和B的突触旋钮会变得更大
  • 用数学模型表示:
    wi=wi+ηxiy w_i = w_i + \eta x_i ywi=wi+ηxiy
    wiw_iwi是第iii个输入神经元xix_ixi对输出yyy的权重
  • 这个简单的公式是许多机器学习算法得基础
  1. Rosenblatt’s perceptron
    在这里插入图片描述
  • 输入的线性组合

  • 阈值逻辑: 如果输入线性组合之和超过阈值,输出为1
    f(n)={1,if ∑iwixi−T>0 0,else f(n)= \begin{cases} 1, & \text {if $\sum_{i}{w_i x_i} - T > 0$ } \\ 0, & \text{else} \end{cases} f(n)={1,0,if iwixiT>else

  • 提供了学习算法
    W→=W→+η(d(x→)−y(x→))x→ \overrightarrow W = \overrightarrow W + \eta(d(\overrightarrow x)- y(\overrightarrow x))\overrightarrow xW=W+η(d(x)y(x))x

    • d(x)d(x)d(x)是神经元对于输入xxx的期望输出
    • y(x)y(x)y(x)是实际输出

优势:

  • 可执行布尔任务(非, 或, 与)
  • 能够自动更新权值
  • 算法可收敛

不能执行异或算法
说明仅有1个神经元完全不够,因而出现了多层感知机(MLP)
在这里插入图片描述

summary:

1.多层感知机是连接计算图(Multi-layer perceptrons are connectionist computational models)
2 .多层感知机可以用来分类(MLPs are classification engines)
3. 多层感知机也可以模拟输出为任意连续值的函数(MLP can also model continuous valued functions)
4. 人工智能就是通过网络构建可以模拟从输入到输出的函数(Interesting AI tasks are functions that can be modelled by the network)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值