《Attention-via-Attention Neural Machine Translation》
背景:由于许多语言源于共同的祖先语言并且相互影响,因此这些语言之间不可避免地存在相似性,例如词汇相似性和命名实体相似性。思路:引入了一种注意力通过注意机制,它允许源侧角色的信息直接流向目标侧。 利用这种机制,当单词相似时,将基于源端字母的表示生成目标端字母。从而避免了字典的使用。思路:首先字母级别的encoder处理源语句中的字母,根据语句中的空格,使用单词级别encoder处理源语句中的...