tensorflow 1.6 修改checkpoint的saver机制
前段时间公司上马了一个机器学习的项目,在基础环境搭好以后,默认机制存在几个痛点:
每隔10分钟保持一个checkpoint,
保存下来的step无法追溯其loss值,
最多只给保存5个点,
无法获取最小loss的checkpoint
这些需求其实跟tensorflow本身的业务无关,只是修改一下他训练过程中的保存机制。下面记录一下这些问题的解决办法。
1. 最多只给保存5个点:
这个最先搜到了...
原创
2019-06-14 11:23:55 ·
1804 阅读 ·
0 评论