
神经网络
神经网络学习
SoWhat1412
微信搜索【SoWhat1412】,第一时间阅读原创干货文章。人之患、在好为人师、不实知、谨慎言。点点滴滴、皆是学问、看到了、学到了、便是收获、便是进步。
展开
-
【神经网络】Google Colab 免费GPU服务器使用教程
本文link一、前言不知道大家是否为了寻找免费GPU服务器而焦头烂额。近些天,谷歌推出了Google Colab(Colaboratory)官方对其的说明是:Colaboratory 是一个研究项目,可免费使用。划重点,最重要的特点是 免费GPU!免费GPU!免费GPU!虽然不确定这个项目是不是永久的但这无疑给纠结在是否花大量钱租用GPU服务器进行研究的个人研究者带去了...转载 2019-08-29 14:36:19 · 1841 阅读 · 1 评论 -
【神经网络】batch、epoch、iteration的含义
深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参数都要把数据集里的所有样本都看一遍,计算量开销大,计算速度慢,不支持在线学习,这称为Batch gradient descent,批梯度下降。另一种,每看一个数据就算一下损失函数,然后求梯度更新参数,这个称为随机梯度下降,stoc...原创 2019-05-07 09:55:37 · 12398 阅读 · 4 评论 -
【神经网络】 深入浅出BP神经网络
前面讲过,使用梯度下降的方法,要不断的修改k、b两个参数值,使最终的误差达到最小。神经网络可不只k、b两个参数,事实上,网络的每条连接线上都有一个权重参数,如何有效的修改这些参数,使误差最小化,成为一个很棘手的问题。从人工神经网络诞生的60年代,人们就一直在不断尝试各种方法来解决这个问题。直到80年代,误差反向传播算法(BP算法)的提出,才提供了真正有效的解决方案,使神经网络的研究绝处逢生。BP算...原创 2018-01-18 19:02:15 · 1140 阅读 · 1 评论