- 博客(7)
- 资源 (3)
- 收藏
- 关注
转载 为什么在训练神经网络时候比较适合使用交叉熵错误率,而不是分类错误率或是均方差
为什么在训练神经网络时候比较适合使用交叉熵错误率,而不是分类错误率或是均方差,这样看起来ACE和均方差明显优于分类错误率,同时ACE和均方差相比差别不大。但是,考虑到均方差计算量要稍大于ACE。
2016-11-06 12:42:57
3125
1
转载 使用sklearn进行数据预处理 —— 归一化/标准化/正则化
本文主要是对照scikit-learn的preprocessing章节结合代码简单的回顾下预处理技术的几种方法,主要包括标准化、数据最大最小缩放处理、正则化、特征二值化和数据缺失值处理。内容比较简单,仅供参考!
2016-10-27 15:47:56
16549
原创 在优快云博客中插入公式和图片
刚开始接触优快云,昨天写的博客中的公式和图片都是直接粘贴上的,后来发表后发现都没了。。说实话都有放弃优快云的想法了,不过最终是解决了。图片的话是我是本地上传的,先把图片截图保存到自己电脑上,然后点击编辑器中的“图片”按钮,选择上传就好了!公式可以用图片的形式,但是不是很美观,我用的是LaTeX,下面的网址是一个在线的免费LaTeX公式编辑网站:http://www.codecogs
2016-10-20 16:43:20
495
原创 机器学习笔记——梯度下降法
梯度下降法是一种求取极小值的方法,但其求得的结果只能说是可能为全局最小值,因为还有可能求得的结果是局部最小值,这与初始位置有关。下面用一个例子引入梯度下降法。从下图中我们能很直观的看出一条紫色的虚线把红点和蓝块分成了两类,如果这时引入一个新的图形(用黑色三角形表示),告诉你这个图形属于这两类中的一类,我们会很自然的把它归到红点所在的那一类中。为什么呢?物以类聚,它和红点都在紫色虚线以下!这是他
2016-10-19 16:54:56
535
ros by example vol2
2017-09-04
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人