1、对于minist的数据集上搭建dnn网络,并不是层数越多越好,2个隐层的结果要坏于一个隐层的结果,
激活函数选用relu效果要好
2、关于softmax层输出理应是0~1的小数, 一旦只输出0或1, 那表明模型对自己的判断相当“自信”
可供参考的改善措施如下:
(1)避免使用非线性的激活函数, 比如 relu或者tanh
(2)wights 和 bias 初始化是否过大
(3)学习速率是否过大
(4)神经元是否过多
https://stackoverflow.com/questions/42225143/tensorflow-why-softmax-outputs-1-0-0-0
3、tensorflow保存和使用模型
https://blog.youkuaiyun.com/huachao1001/article/details/78501928
https://jarvis73.github.io/2018/04/25/Tensorflow-Model-Save-Read/
4、tensorflow的estimator学习及封装:
https://github.com/ElementAI/multithreaded-estimators.git
estimator预测,使用yield_single_examples=False可以得到批量,默认只得到一个