我是靠谱客的博主 畅快柜子,最近开发中收集的这篇文章主要介绍序列网络详解,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

1、循环神经网络详解(RNN)

在这里插入图片描述

公式:
o ( t ) = s o f t m a x ( h t ⋅ w h y + b y ) o(t)=softmax(h_t cdot w_{hy}+b_y) o(t)=softmax(htwhy+by) h t = t a n h ( h t − 1 ⋅ w h h + x t ⋅ w x h + b h ) h_t=tanh(h_{t-1} cdot w_{hh} + x_t cdot w_{xh} + b_h) ht=tanh(ht1whh+xtwxh+bh)
参数默认:
W : w h h w_{hh} whh,h表征中间隐层记忆体维度
U : w x h w_{xh} wxh,x为输入层embedding维度(文本->分词->词典化->填充->embedding table lookup)
V : w h y w_{hy} why,连接隐层到输出层,比如手写数字识别,则有y=10(10分类任务)
参数量: h ∗ h h*h hh (W : w h h w_{hh} whh) + x ∗ h ( x*h ( xh(U : w x h w_{xh} wxh) + h ∗ 1 h*1 h1( b h b_h bh) + h ∗ y h*y hy(V : w h y w_{hy} why) = h ∗ ( h + x + 1 + y ) h*(h+x+1+y) h(h+x+1+y)
在这里插入图片描述
注意事项(容易误解的地方)
1、tanh不改变参数维度
2、softmax输出维度是y,y维度取决于实际任务

2、LSTM

在这里插入图片描述
在这里插入图片描述

3、seq2seq

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Ref:

  [1].LSTM理解
  [2].LSTM拆分图
  [3].简说Seq2Seq原理及实现
  [4].Tensorflow中的Seq2Seq全家桶

最后

以上就是畅快柜子为你收集整理的序列网络详解的全部内容,希望文章能够帮你解决序列网络详解所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(49)

评论列表共有 0 条评论

立即
投稿
返回
顶部