2023/5/7周报

摘要

通过使用activation function激活函数对模型进行改写,从而推导出更多更复杂的新模型。新推导出的模型仍然使用gradient descent算法寻找最优解。同时,在推导更复杂新模型的过程中,进一步提出深度学习的概念,即many layers means Deep。

一.第一种new model

Sigmoid函数常被用作神经网络的激活函数,将变量映射到0,1之间。
在这里插入图片描述
在有了sigmoid function的基础上,可以将进行如下的变换,改写y=b+wx1后得到新function:
在这里插入图片描述

此时,设i,j分别取值1,2,3。

1.新的function with unknown parameters:

在这里插入图片描述
在这里插入图片描述

2.find loss function:

Loss是关于在这里插入图片描述的函数, 用以评估参数的好坏。
在这里插入图片描述

3.optimization of New Model

在这里插入图片描述
寻找最佳的在这里插入图片描述值,使得loss最小。

首先随机选择一个在这里插入图片描述0的初始值。

然后开始求梯度g和在这里插入图片描述1:

在这里插入图片描述

在第一步中可以对a再次求在这里插入图片描述,还可以多次叠加a。具体做几次也是hyperparameter,做得越多,层数越多,深度也会越深。

二.第二种new model

不使用sigmoid函数,使用relu线性整数函数。

在这里插入图片描述

sigmoid与relu都是activation function(激活函数),还有其他的激活函数。

在这里插入图片描述

众多的neural组成neutral network(神经网络)。

神经网络有以下三个层次组成:输入层(input layer), 隐藏层 (hidden layers), 输出层 (output layers)。

如今更多使用hidden layer(隐藏层)的叫法,many layers means Deep,即层越多,深度越深。

层数并非越深越好,可能会出现overfitting问题,即better on training data,worse on
unseen data。

三、深度学习

1.深度学习的诞生:

在这里插入图片描述

2.深度学习的一些术语:

CNN:深度神经网络,它将卷积结构放在神经网络中,可以很好的对图像进行处理。

RNN:循环神经网络,通常处理序列化的数据,如音频,视频等。

3.深度学习的关键步骤:

深度学习是属于机器学习的分支,故关键步骤与机器学习接近。

step1:define a set of function(neural network)

在这里插入图片描述

例如:fully connected feetforward network(全连接前馈网络)

在这里插入图片描述

step2:goodness of function

在这里插入图片描述

step3:pick the best function

step2和step3仍然使用gradient descent梯度下降算法找最优解。
以上就是learning的过程,即使是阿尔法狗,也是采用这种方式。

总结

在对新模型的推导过程使用了线性代数中矩阵相关内容以及高数中的求导、微分等知识,进一步让我体会到数学对于机器学习的重要性,在学习机器学习的同时,可以利用业余时间复习巩固或是新学习一些数学知识。深度学习的层数也并非越深越好,还需要考虑到overfitting的问题,有时候层数多了,深度深了,只是training data变好,然而预测数据变得更差了。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值