我是靠谱客的博主 纯真柜子,最近开发中收集的这篇文章主要介绍【论文笔记】Reasoning about Entailment with Neural AttentionReasoning about Entailment with Neural Attention,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

Reasoning about Entailment with Neural Attention

这篇论文主要讲了他们第一次应用深度学习取得了比现阶段人工特征更好的结果(201509),模型架构大体是:LSTM—Attention—FC分类
https://arxiv.org/pdf/1509.06664v1.pdf
在这里插入图片描述

LSTM层

他们使用两个不同的LSTM来分别对Premise和Hypothesis进行向前传播, L S T M h y p o t h e s i s LSTM_{hypothesis} LSTMhypothesis的第一个中间状态 c 0 c_0 c0 是由 L S T M p r e m i s e LSTM_{premise} LSTMpremise的最后一个中间状态初始化的。他们的说法是,没有必要重复对Hypothesis进行encode(指将hypothesis句子经过和Premise同一个LSTM的处理称为encode),这样在 L S T M h y p o t h e s i s LSTM_{hypothesis} LSTMhypothesis里,会更加关注与premise的语义关联的处理

attention层

他们提出了两种方法

  1. 传统方法:将 L S T M p r e m i s e LSTM_{premise} LSTMpremise输出拼接为矩阵Y作为输入向量, L S T M h y p o t h e s i s LSTM_{hypothesis} LSTMhypothesis的最后一个输出 h N h_N hN 作为查询向量,使用加性模型计算attention:
    M = t a n h ( W y Y + W h h N ⨂ e L ) M = tanh(W^yY+W^hh_Nbigotimes e_L) M=tanh(WyY+WhhNeL)
    α = s o f t m a x ( w T M ) alpha = softmax(w^TM) α=softmax(wTM)
    r = Y α T r = Yalpha^T r=YαT
    其中 ⨂ bigotimes 操作是外积,作用等价于 W h h N ∈ ( k × 1 ) W^hh_Nin (k×1) WhhN(k×1)与一个 1 × L 1×L 1×L 维的纯1向量点乘

    最后,通过如下计算得到用于分类的最终输出
    h ∗ = t a n h ( W p r + W x h N ) h^* = tanh(W^pr + W^xh_N) h=tanh(Wpr+WxhN)

  2. Word-by-word Attention:他们的想法是只利用最后一个输出hn作为查询会遇到LSTM的对前面输入记忆的瓶颈,于是迭代地对每一个 L S T M h y p o t h e s i s LSTM_{hypothesis} LSTMhypothesis的输出都用上面的方法进行注意力计算,并在每次计算中使用了上一次计算的输出(即 r t − 1 r_{t-1} rt1)。最终得到的 r L h r_{L_h} rLh以同样的方式处理。
    M t = t a n h [ W y Y + ( W h h t + W r r t − 1 ) ⨂ e L ] M_t = tanh[W^yY+(W^hh_t+W^rr_{t-1}) bigotimes e_L] Mt=tanh[WyY+(Whht+Wrrt1)eL]
    α t = s o f t m a x ( w T M t ) alpha_t = softmax(w^TM_t) αt=softmax(wTMt)
    r t = Y α L T + t a n h ( W t r t − 1 ) r_t = Yalpha^T_L + tanh (W^tr_{t-1}) rt=YαLT+tanh(Wtrt1)
    h ∗ = t a n h ( W p r L + W x h N ) h^* = tanh(W^pr_L + W^xh_N) h=tanh(WprL+WxhN)

另外他们将Premise和Hypothesis换位输入仅模型并将最后输入合并进行分类,称为双向注意力,这个操作没有带来性能的提高,他们分析是因为蕴藏的含义具有非对称的关系,所以使用相同模型再次encode Hypothesis时可能会造成噪声(这点暂时不太理解)。

最后

以上就是纯真柜子为你收集整理的【论文笔记】Reasoning about Entailment with Neural AttentionReasoning about Entailment with Neural Attention的全部内容,希望文章能够帮你解决【论文笔记】Reasoning about Entailment with Neural AttentionReasoning about Entailment with Neural Attention所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(61)

评论列表共有 0 条评论

立即
投稿
返回
顶部