我是靠谱客的博主 长情乌龟,最近开发中收集的这篇文章主要介绍TensorFlow2.1入门学习笔记(7)——损失函数,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

个人博客:wyxogo.top

TensorFlow2.0入门学习笔记(7)——损失函数

损失函数(loss):

预测值(y)与已知答案(y_)的差距
神经网络的优化目标:loss最小 ⇒ { m s e ( M e a n A q u a r e d E r r o r ) 自 定 义 c e ( C r o s s E n t r o p y ) Rightarrow left{begin{array}{lr}mse(Mean Aquared Error) \自定义 \ce(Cross Entropy)end{array}right. mse(MeanAquaredError)ce(CrossEntropy)

均方误差mse:loss_mse = tf.reduce_mean(tf.square(y_-y))

M S E ( y _ , y ) = ∑ i = 1 n ( y − y _ ) 2 n MSE(y_,y)=frac{sum_{i=1}^{n}(y-y_)^2}{n} MSE(y_,y)=ni=1n(yy_)2


  • 预测酸奶日销量y,x1、x2是影响日销量的因素。
    建模前,应预先采集的数据有:每日x1、x2和销量y_(即已知答案,最佳的情况:产量=销量)
    拟造数据集X,Y:y_=x1+x2
    噪声:-0.05~+0.05
    拟合可以预算销量的函数
import tensorflow as tf
import numpy as np

SEED = 23455

rdm = np.random.RandomState(seed=SEED)  # 生成[0,1)之间的随机数
x = rdm.rand(32, 2)
y_ = [[x1 + x2 + (rdm.rand() / 10.0 - 0.05)] for (x1, x2) in x]  # 生成噪声[0,1)/10=[0,0.1); [0,0.1)-0.05=[-0.05,0.05)
x = tf.cast(x, dtype=tf.float32)

w1 = tf.Variable(tf.random.normal([2, 1], stddev=1, seed=1))

epoch = 15000
lr = 0.002

for epoch in range(epoch):
    with tf.GradientTape() as tape:
        y = tf.matmul(x, w1)
        loss_mse = tf.reduce_mean(tf.square(y_ - y))

    grads = tape.gradient(loss_mse, w1)
    w1.assign_sub(lr * grads)

    if epoch % 500 == 0:
        print("After %d training steps,w1 is " % (epoch))
        print(w1.numpy(), "n")
print("Final w1 is: ", w1.numpy())

  • 运行结果
    ![在这里插入图片描述](https://img-blog.csdnimg.cn/20200519221357666.png?x-oss-process=image ,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L21vb25vYQ==,size_16,color_FFFFFF,t_70)
自定义损失函数:

如预测产品销量,预测多了,损失成本;预测少了,损失利润。若利润 ≠ neq =成本,则mse产生的loss无法利益最大化。
自定义损失函数: l o s s ( y _ , y ) = ∑ n f ( y _ , y ) loss(y_,y)=sum_{n}f(y_,y) loss(y_,y)=nf(y_,y)
f ( y _ , y ) = { P R O F I T ∗ ( y _ − y ) y < y _ C O S T ∗ ( y _ − y ) y ≥ y _ f(y_,y)=left{begin{array}{lr}PROFIT*(y_-y)&y<y_ \COST*(y_-y)&ygeq y_end{array}right. f(y_,y)={PROFIT(y_y)COST(y_y)y<y_yy_
loss_zdy=tf.reduce_sum(tf.where(tf.greater(y,y_),COST(y-y_),PROFIT(y_-y)))
如:预测酸奶销量,酸奶成本(COST)1元,酸奶利润(PROFIT)99元
预测少了损失利润99元,预测多了损失1元,希望生成的预测函数往多了预测

import tensorflow as tf
import numpy as np

SEED = 23455
COST = 1
PROFIT = 99

rdm = np.random.RandomState(SEED)
x = rdm.rand(32, 2)
y_ = [[x1 + x2 + (rdm.rand() / 10.0 - 0.05)] for (x1, x2) in x]  # 生成噪声[0,1)/10=[0,0.1); [0,0.1)-0.05=[-0.05,0.05)
x = tf.cast(x, dtype=tf.float32)

w1 = tf.Variable(tf.random.normal([2, 1], stddev=1, seed=1))

epoch = 10000
lr = 0.002

for epoch in range(epoch):
    with tf.GradientTape() as tape:
        y = tf.matmul(x, w1)
        loss = tf.reduce_sum(tf.where(tf.greater(y, y_), (y - y_) * COST, (y_ - y) * PROFIT))

    grads = tape.gradient(loss, w1)
    w1.assign_sub(lr * grads)

    if epoch % 500 == 0:
        print("After %d training steps,w1 is " % (epoch))
        print(w1.numpy(), "n")
print("Final w1 is: ", w1.numpy())


  • 运行结果
    在这里插入图片描述
交叉熵损失函数:tf.losses.categorical_crossentropy(y_,y)

H ( y _ , y ) = − ∑ y _ ∗ l n y H(y_,y)=-sum y_*lny H(y_,y)=y_lny
CE(Cross Entropy):表示两个概率分布之间的距离
eg.二分类 已知答案y_=(1,0)
预测 y 1 y_1 y1=(0.6,0.4) y 2 y_2 y2=(0.8,0.2)哪个更接近标准答案
H 1 H_1 H1((1,0),(0.6,0.4))=-(1 ∗ * ln0.6 + 0 ∗ * ln0.4) ≈ approx -(-0.511 + 0) = 0.511
H 2 H_2 H2((1,0),(0.8,0.2))=-(1 ∗ * ln0.8 + 0 ∗ * ln0.2) ≈ approx -(-0.223 + 0) = 0.223
因为 H 1 > H 2 H_1>H_2 H1>H2,所以 y 2 y_2 y2预测更准确

import tensorflow as tf
loss_ce1 = tf.losses.categorical_crossentropy([1, 0], [0.6, 0.4])
loss_ce2 = tf.losses.categorical_crossentropy([1, 0], [0.8, 0.2])
print("loss_ce1:", loss_ce1)
print("loss_ce2:", loss_ce2)
  • 运行结果
    在这里插入图片描述
softmax与交叉熵解和:tf.nn.softmax_cross_entropy_with_logits(y_,y)

输出先过softmax函数,再计算y与y_的交叉熵损失函数

# softmax与交叉熵损失函数的结合
import tensorflow as tf
import numpy as np

y_ = np.array([[1, 0, 0], [0, 1, 0], [0, 0, 1], [1, 0, 0], [0, 1, 0]])
y = np.array([[12, 3, 2], [3, 10, 1], [1, 2, 5], [4, 6.5, 1.2], [3, 6, 1]])
y_pro = tf.nn.softmax(y)
loss_ce1 = tf.losses.categorical_crossentropy(y_,y_pro)
loss_ce2 = tf.nn.softmax_cross_entropy_with_logits(y_, y)

print('分步计算的结果:n', loss_ce1)
print('结合计算的结果:n', loss_ce2)
  • 运行结果:
    在这里插入图片描述
    主要学习的资料,西安科技大学:神经网络与深度学习——TensorFlow2.0实战,北京大学:人工智能实践Tensorflow笔记

最后

以上就是长情乌龟为你收集整理的TensorFlow2.1入门学习笔记(7)——损失函数的全部内容,希望文章能够帮你解决TensorFlow2.1入门学习笔记(7)——损失函数所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(41)

评论列表共有 0 条评论

立即
投稿
返回
顶部