7.deep learning

本文介绍了深度学习中的关键概念,包括GPU加速的矩阵运算、softmax函数的理解及其应用、从特征抽取到网络结构的设计转变,以及利用toolkit进行微分和反向传播计算。此外还详细解释了深度学习中的训练过程,包括目标函数、成本函数、梯度下降法等核心内容。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

deep learning












这些矩阵运算可以用GPU加速,比CPU快


softmax怎么理解?没毛病


就是把一堆实数的值映射到0-1区间,并且使他们的和为1。一般用来估计posterior probability,在多分类任务中有用到。




如何抽FEATURE变成了如何设计network structure 









这些toolkit可以用来算微分,backpropagation

和直线拟合一样,深度学习的训练也有一个目标函数,这个目标函数定义了什么样的参数才算一组“好参数”,不过在机器学习中,一般是采用成本函数(cost function),然后,训练目标就是通过调整每一个权值Wij来使得cost达到最小。cost函数也可以看成是由所有待求权值Wij为自变量的复合函数,而且基本上是非凸的,即含有许多局部最小值。但实际中发现,采用我们常用的梯度下降法就可以有效的求解最小化cost函数的问题。

梯度下降法需要给定一个初始点,并求出该点的梯度向量,然后以负梯度方向为搜索方向,以一定的步长进行搜索,从而确定下一个迭代点,再计算该新的梯度方向,如此重复直到cost收敛。那么如何计算梯度呢?





评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值