我是靠谱客的博主 拉长魔镜,最近开发中收集的这篇文章主要介绍tf.nn.embedding_lookup()详解,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

tf.nn.embedding_lookup(tensor,id)这个函数一般用于通过输入input_x的值,来获取权重大矩阵里面的每个字的向量。

a = tf.Variable(tf.random_normal([3,5],7,1))
b = tf.Variable(tf.nn.embedding_lookup(a,[0,2,1,0]))
with tf.Session() as sess:
sess.run(tf.global_variables_initializer())
print(a.eval())
print(b.eval())

输出的结果是:

[[8.127014
6.635704
6.214539
6.260006
8.599776 ]
[6.6675673 7.7031364 7.4922285 5.4658527 6.449992 ]
[6.5353246 8.161758
5.4754076 6.515927
5.5366616]]
[[8.127014
6.635704
6.214539
6.260006
8.599776 ]
[6.5353246 8.161758
5.4754076 6.515927
5.5366616]
[6.6675673 7.7031364 7.4922285 5.4658527 6.449992 ]
[8.127014
6.635704
6.214539
6.260006
8.599776 ]]

自己已经测试,从这里可以看出,只要是声明的变量,就必须要给其初始化,函数第一个参数tensor a 已经给了其默认排序[0,1,2,3…a[0]]排序,第二个参数可以是一个数组,数组中的每个是tensor索引的位置

最后

以上就是拉长魔镜为你收集整理的tf.nn.embedding_lookup()详解的全部内容,希望文章能够帮你解决tf.nn.embedding_lookup()详解所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(52)

评论列表共有 0 条评论

立即
投稿
返回
顶部