深度学习的数学:深度学习和卷积神经网络 读书笔记

本文探讨了神经网络如何通过变换数据空间而不破坏其基本拓扑特性,重点介绍了tanh层的同胚性质。文章引用《Neural Networks, Manifolds, and Topology》的观点,解释了神经网络每一层如何拉伸和挤压空间,同时保持数据的连续性和连通性。深入讨论了CNN在图形处理中的应用,包括卷积、池化和全连接层的概念,以及它们如何利用局部信息提升训练效率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

业余民科,垃圾内容勿看

神经网络与拓扑

在CNN的读书笔记之前,这里先记录一下神经网络与拓扑的关系,源于脑洞文章《Neural Networks, Manifolds, and Topology》,只要你站的角度够高,可以直击问题的本质。

With each layer, the network transforms the data, creating a new representation. We can look at the data in each of these representations and how the network classfies them. - 《Neural Networks, Manifolds, and Topology》

A t a n h tanh tanh layer t a n h tanh tanh(W x x x + b b b) consists of:

  1. A linear transformation by the “weight” matrix W W W
  2. A translation by the vector b b b
  3. Point-wise application of tanh

Each layer streches and squishes space, but it never cuts, breaks, or folds it. Intuitively, we can that it preserves topological properties. - 《Neural Networks, Manifolds, and Topology》

博客作者证明了 t a n h tanh tanh(and s i g m o i d sigmoid sigmoid and s o f t p l u s softplus softplus but not ReLU)的layer具有homeomorphism(同胚)。

但是博客后面的两个同心圆的例子,我还没有彻底理解。

toy 2d classification with 2-layer neural network
深层学习为何要“Deep”
http://colah.github.io/posts/2014-03-NN-Manifolds-Topology/
神经网络,流形和拓扑
http://playground.tensorflow.org/

CNN

卷积(convolution)

卷积起到了一个特征提取的作用。
卷积一般有多个。

池化(Pooling)

减少数据量?
防止过拟合?

全连接层(Fully Connected layer)

传统的NN其实都是全连接层。

CNN的本质是什么

通过挖掘局部结构的特点减少了训练的参数个数并提高了训练效果(存疑)。而局部信息关联最为紧密的莫过于图形了,图像就是通过像素与像素之间的关系产生了意义。

CNN优势

参数共享,减少训练数据量,避免过拟合,平移不变性

CNN劣势

为什么要选用CNN

Neural Networks, Manifolds, and Topology

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值