keras 按batch size读取loss一点点小思考获取history中的东西
这里我的想法就是先写一个回调函数读取每个batch中loss,然后读取History中存储的数值这个方法很大众,不管可以读取loss,History中所有值都可以每个batch记录损失函数(loss)class Mylosscallback(Callback): def __init__(self, log_dir): super(Callback, self).__init__() self.val_writer = tf.summary.FileWriter