概述
1、如何在全连接层拼接特征?
有一种方法是有两个input,一个input通过网络最终达到全连接层,另一个input直接接一个全连接网络,神经元数是特征数,这两个可以进行一个concat。 当然了也可以直接输入特征concat到全连接层,但是据说前者效果要好一点。
2、word2vec词向量如何在网络中更新?
在我的一个模型中(网络层次较浅),我用word2vec词向量的效果比之用随机词向量然后更新的效果要远远远远远远的不如!!!很绝望,发现word2vec词向量生成tensor又不能更新,不能微调!解决办法有两个:
- 输入的word2vec词向量先接一个全连接层,进行参数的更新。加个dense层就行
- 将这个权重更改为可训练的,如下代码:
- W = tf.get_variable(name="W", shape=embedding.shape, initializer=tf.constant_initializer(embedding), trainable=False)
3、RNN中的输出,state和output?
参考文章:https://blog.csdn.net/taoqick/article/details/79475350
简单来说如果是单层gru或者单层普通rnn,那么output和state是一样的;但如果是lstm cell &
最后
以上就是虚拟银耳汤为你收集整理的tensorflow与神经网络中遇到的问题与解决方法【持续更新】的全部内容,希望文章能够帮你解决tensorflow与神经网络中遇到的问题与解决方法【持续更新】所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复