我是靠谱客的博主 结实猫咪,最近开发中收集的这篇文章主要介绍Keras自定义Loss函数,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

Keras本身提供了很多常用的loss函数(即目标函数),但这些损失函数都是比较基本的、通用的。有时候我们需要根据自己所做的任务来自定义损失函数,虽然Keras是一个很高级的封装,自定义loss还是比较简单的。
第一种方式:自定义函数
进入keras/keras/losses.py文件中,我们可以看到很多keras自带loss的实现代码,比如最简单的均方误差损失函数

def mean_squared_error(y_true,y_pred):
	return K.mean(K.square(y_pred-y_true),axis=-1)

其中y_true为网络给出的预测值,y_true即是标签,两者均为tensor。在loss中直接操作这两个变量即可实现自己想要的loss。例如,我们将其改为四次方的平均值来作为新的loss:

def mean_squared_error2(y_true, y_pred):
	return K.mean(K.square(K.square(y_pred-y_true)),axis=-1)

model编译阶段将loss指定为我们自定义的函数

model.compile(optimizer='rmsprop',loss=mean_squared_error2)

!!!第二种方式:自定义一个层次!!!
在Keras自带的examples中又发现了另外一种定义loss函数的例子,该例子将新的损失函数定义为一个层次来使用。在keras/examples/variational_autoencoder.py文件中

# Custom loss layer
class CustomVariationalLayer(Layer):
    def __init__(self, **kwargs):
        self.is_placeholder = True
        super(CustomVariationalLayer, self).__init__(**kwargs)

    def vae_loss(self, x, x_decoded_mean):
        xent_loss = original_dim * metrics.binary_crossentropy(x, x_decoded_mean)#Square Loss
        kl_loss = - 0.5 * K.sum(1 + z_log_var - K.square(z_mean) - K.exp(z_log_var), axis=-1)# KL-Divergence Loss
        return K.mean(xent_loss + kl_loss)

    def call(self, inputs):
        x = inputs[0]
        x_decoded_mean = inputs[1]
        loss = self.vae_loss(x, x_decoded_mean)
        self.add_loss(loss, inputs=inputs)
        # We won't actually use the output.
        return x

该自定义层次的使用如下:

y = CustomVariationalLayer()[x,x_decoded_mean])
vae = Model(x,y)
vae.compile(optimizer='rmsprop',loss=None)

第一句代码中的x为输入数据,x_decoded_mean为网络的输出数据(除开网络的最后一层)。
compile函数中指定’loss’为None,表示loss已经作为一个层次在网络中了,不需要这里指定loss。
这里定义CustomVariationalLayer类别的对应内容可以视为
y = CustomVariationalLayer()[inputs,outputs]

最后

以上就是结实猫咪为你收集整理的Keras自定义Loss函数的全部内容,希望文章能够帮你解决Keras自定义Loss函数所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(51)

评论列表共有 0 条评论

立即
投稿
返回
顶部