🚀 机器学习系列前期回顾
🚀在初识机器学习中,了解了机器学习是如何工作的并引入了线性模型,在线性模型到神经网络这节,将线性模型进一步改进为弹性较大的神经网络模型并在结尾简要说了一下使用一个
batch
更新一次参数,在local minima
的问题如何解决这节,解决了求解模型未知参数的时候遇见local minima
的解决办法。在这一小结,将继续探索为什么要使用batch
。
1) batch
在前面已经了解过了batch 如何工作,其就是在进行模型未知参数求解的时候,对于构建损失函数来说,之前是使用所有的已知的数据(训练数据)来构建损失函数,而引入batch
后,将已知的所有数据分成等大小的batch
,使用一个batch
的数据来构建损失函数,进行更新参数,然后依次使用下一个batch
构建新的损失函数,进行更新参数,直到使用完最后一个batch
,即看完所有的已知数据,即进行了一个epoch
。 在进行完一个epoch
后,会将数据进行一个shuffle
(洗牌的操作),再次分成batch
进行训练,更新参数。
2)batch
的大小如何设置
对于batch
的大小如何设置,这也是一个超参数,需要自己人工设置,那到底应