结合去年年底谷歌宣布开源其机器学习开源库TensorFlow,以及之前InfoQ报道的内容来看,数据科学界已经迎来了尝试将TensorFlow应用到自己的项目里的机会。
\\Databricks公司的Tim Hunter通过Spark演示了使用TensorFlow生成模型选项和一定规模的神经网络处理。Hunter在描述人工神经网络的时候,将之形容成一个在人脑的视觉皮层里模拟神经元一样,这样的模拟在经过大量充分训练之后,可以被用于处理复杂的输入数据,如图像或音频等等。
\\Hunter详细讲述了他是如何把TensorFlow运行在各种Spark配置上来平衡对超参数的调整的。Hunter说,目前TensorFlow支持Python和C++这两种语言,帮助了“自动创建可用于各种形状和尺寸的神经网络的训练算法”,此训练算法是为了训练一个神经网络,用这个受训的神经网络来处理更大规模的数据,同时还能保证处理结果的高精度和最佳运行时性能。
\\Hunter提到的一些超参数其实指的是各层神经元数据和学习率,这些数据都是从用于神经网络的训练算法本身分离出来的。
\\如何更好的调整超参数,让已经给定的算法对运行时间和模型精度产生最佳的影响。超参数的设置是经过相互比对的,目的是把在每一层神经元和错误测试数据里产生的变量关联起来,找到这之间的关系。
\\\\\学习率是相当关键的点:如果学习率太低,神经网络是不会学习任何东西的。如果学习率太高,只能说明训练过程中可能出现了随机振荡,使得某些配置发生了偏离。
\