我是靠谱客的博主 虚拟银耳汤,这篇文章主要介绍tensorflow与神经网络中遇到的问题与解决方法【持续更新】,现在分享给大家,希望可以做个参考。

1、如何在全连接层拼接特征?

有一种方法是有两个input,一个input通过网络最终达到全连接层,另一个input直接接一个全连接网络,神经元数是特征数,这两个可以进行一个concat。  当然了也可以直接输入特征concat到全连接层,但是据说前者效果要好一点。

2、word2vec词向量如何在网络中更新?

在我的一个模型中(网络层次较浅),我用word2vec词向量的效果比之用随机词向量然后更新的效果要远远远远远远的不如!!!很绝望,发现word2vec词向量生成tensor又不能更新,不能微调!解决办法有两个:

  • 输入的word2vec词向量先接一个全连接层,进行参数的更新。加个dense层就行
  • 将这个权重更改为可训练的,如下代码:
  1. W = tf.get_variable(name="W", shape=embedding.shape, initializer=tf.constant_initializer(embedding), trainable=False)

3、RNN中的输出,state和output?

参考文章:https://blog.csdn.net/taoqick/article/details/79475350

简单来说如果是单层gru或者单层普通rnn,那么output和state是一样的;但如果是lstm cell &

最后

以上就是虚拟银耳汤最近收集整理的关于tensorflow与神经网络中遇到的问题与解决方法【持续更新】的全部内容,更多相关tensorflow与神经网络中遇到内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(108)

评论列表共有 0 条评论

立即
投稿
返回
顶部