神经网络|入门|思考笔记 1

本文介绍了机器学习的基本概念,包括监督学习、非监督学习、半监督学习和强化学习等。详细讲解了人工神经网络的工作原理,如神经元、神经层以及学习过程中的误差反向传播。还探讨了CNN、RNN(包括LSTM)和它们在图像识别和序列数据处理中的应用,以及梯度消失和爆炸问题以及ConvLSTM的结合。

机器学习基础入门:

机器学习常用算法:

1. 监督学习——有数据、有标签;e.g.神经网络 √
2. 非监督学习
3. 半监督学习——少量有标签 + 大量无标签
4. 强化学习
5. 遗传算法

人工神经网络:

人工神经网络: 是一种运算模型,有大量的结点和结点之间的联系。神经元(结点)固定不可更换,通过修改神经元的敏感程度,来达到理想的输出效果(误差反向传递)

神经层:
input layer:输入层,直接接受信息,负责传递接受的信息
output layer:输出层,输出结果
hidden layer:隐藏层,加工处理并传述信息

学习经验: 先给人工神经网络一堆数据让其学习,得到错误的学习答案和正确的学习答案。通过错误的答案反向推回去,在每一层的神经元上进行改动,以保证下次的神经网络识别的正确性增加。如何实现学习? 每个神经元都有属于自己的刺激函数,被激活的神经元会将信息传递下去;若出现错误,会调整不同神经元的函数的的参数——一些会迟钝、一些会敏感,使预测得到正确答案。
在这里插入图片描述

CNN(卷积神经网络):Convolution Neural Network

用途: 图片、语言识别

卷积: 并非对每个像素信息的输入进行处理,而是对每块进行处理。加强连续性,每经过一次卷积,都会加深神经网络对图像的理解。“每块”图像的采集,使用批量过滤器

池化: Pooling,解决每经过一次卷积,神经元会无意识的丢失信息的问题。(卷积只负责卷积,不压缩长宽,保留更多信息,压缩交给池化)

RNN(循环神经网络):Recurrent Neural Network

在有序数据上的学习,t+1时刻的学习是t和t+1共同决定,这样就形成了“记忆”
在这里插入图片描述

LSTM(长短期记忆):Long-Short Term Memory

是RNN的形式之一
梯度下降

梯度消失: 若w<1,不断地*误差,误差就会在回到初始时间的数据时接近于0,相当于消失。

梯度爆炸: 若w>1,误差会越来越大。(这就是普通RNN无法回忆起久远记忆的原因)

–若输入十分重要,就会将输入按照重要程度写入“主线”
–若有些“支线”改变主线走向,忘记控制就会将之前的忘记,替换成新的
–输出会看“主线”和“支线”,查看到底输出什么
在这里插入图片描述

ConvLSTM:Convolution-LSTM

=CNN+LSTM
不仅具有LSTM的时序建模,而且可以像CNN一样刻画局部特征。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值