我是靠谱客的博主 稳重长颈鹿,最近开发中收集的这篇文章主要介绍tf.nn.sparse_softmax_cross_entropy_with_logits的用法,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

tf.nn.sparse_softmax_cross_entropy_with_logits(y, tf.argmax(y_)):

y表示的是实际类别,y_表示预测结果,这实际上面是把原来的神经网络输出层的softmax和cross_entrop何在一起计算,为了追求速度。

例如:

import tensorflow as tf;    
import numpy as np;    
import matplotlib.pyplot as plt;    
    
y2 = tf.convert_to_tensor([[0, 0, 1, 0]], dtype=tf.int64)  
y_2 = tf.convert_to_tensor([[-2.6, -1.7, 3.2, 0.1]], dtype=tf.float32)  
c2 = tf.nn.sparse_softmax_cross_entropy_with_logits(y_2, tf.argmax(y2, 1))  
  
y3 = tf.convert_to_tensor([[0, 0, 1, 0], [0, 0, 1, 0]], dtype=tf.int64)  
y_3 = tf.convert_to_tensor([[-2.6, -1.7, -3.2, 0.1], [-2.6, -1.7, 3.2, 0.1]], dtype=tf.float32)  
c3 = tf.nn.sparse_softmax_cross_entropy_with_logits(y_3, tf.argmax(y3, 1))  
  
y4 = tf.convert_to_tensor([[0, 1, 0, 0]], dtype=tf.int64)  
y_4 = tf.convert_to_tensor([[-2.6, -1.7, -3.2, 0.1]], dtype=tf.float32)  
c4 = tf.nn.sparse_softmax_cross_entropy_with_logits(y_4, tf.argmax(y4, 1))  
  
with tf.Session() as sess:  
    print 'c2: ' , sess.run(c2)  
    print 'c3: ' , sess.run(c3)  
    print 'c4: ' , sess.run(c4)  
输出:

c2:  [ 0.05403676]
c3:  [ 3.53853464  0.05403676]
c4:  [ 2.03853464]




最后

以上就是稳重长颈鹿为你收集整理的tf.nn.sparse_softmax_cross_entropy_with_logits的用法的全部内容,希望文章能够帮你解决tf.nn.sparse_softmax_cross_entropy_with_logits的用法所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(84)

评论列表共有 0 条评论

立即
投稿
返回
顶部