Databricks整合Spark和TensorFlow用于深度学习模型

Databricks的Tim Hunter展示了如何利用Spark与TensorFlow进行大规模神经网络训练,探讨超参数调整对模型精度和运行时间的影响。通过Spark的分布式计算,实现了模型验证速度的显著提升,优化了深度学习模型的性能。

结合去年年底谷歌宣布开源其机器学习开源库TensorFlow,以及之前InfoQ报道的内容来看,数据科学界已经迎来了尝试将TensorFlow应用到自己的项目里的机会。

\\

Databricks公司的Tim Hunter通过Spark演示了使用TensorFlow生成模型选项和一定规模的神经网络处理。Hunter在描述人工神经网络的时候,将之形容成一个在人脑的视觉皮层里模拟神经元一样,这样的模拟在经过大量充分训练之后,可以被用于处理复杂的输入数据,如图像或音频等等。

\\

42b6ea1dc30a0d3eb65c0b05819d4212.png

\\

Hunter详细讲述了他是如何把TensorFlow运行在各种Spark配置上来平衡对超参数的调整的。Hunter说,目前TensorFlow支持Python和C++这两种语言,帮助了“自动创建可用于各种形状和尺寸的神经网络的训练算法”,此训练算法是为了训练一个神经网络,用这个受训的神经网络来处理更大规模的数据,同时还能保证处理结果的高精度和最佳运行时性能。

\\

Hunter提到的一些超参数其实指的是各层神经元数据和学习率,这些数据都是从用于神经网络的训练算法本身分离出来的。

\\

如何更好的调整超参数,让已经给定的算法对运行时间和模型精度产生最佳的影响。超参数的设置是经过相互比对的,目的是把在每一层神经元和错误测试数据里产生的变量关联起来,找到这之间的关系。

\\
\

学习率是相当关键的点:如果学习率太低,神经网络是不会学习任何东西的。如果学习率太高,只能说明训练过程中可能出现了随机振荡,使得某些配置发生了偏离。

\
\\

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值