learning rate
当发现loss下降,然后又开始上升。很可能是learning rate 到后面太大导致的缘故。
所以应该使用带有衰减效果的learning rate.
session.run(tf.assign(learning_rate, 0.002 * (0.97 ** (step // decay_steps))))
estimator load checkpoint
在使用estimator的时候,只要model_dir传入了和之前是一样的,就会自动的从上次的checkpoint开始自动载入,增量训练。这样会大大的节省时间。如果每次的checkpoint都是从1 开始的,检查下是否每次就删除了model_dir. 例如: DNNLinearCombinedClassifier 就是这样的。
最后
以上就是机灵含羞草最近收集整理的关于tensorflow 调试技巧汇总的全部内容,更多相关tensorflow内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复