我是靠谱客的博主 凶狠冥王星,最近开发中收集的这篇文章主要介绍OpenKiwi 使用的 QE 系统,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

QUETCH

QUality Estimation from scraTCH

http://www.statmt.org/wmt15/pdf/WMT37.pdf

模型输入:对于 MT 中的每个单词,围绕该单词固定大小的窗口,与源句中对齐单词的窗口相连接,得到该目标单词的双语上下文向量。

模型结构:单隐层 MLP,lookup 得到词向量(训练中更新),激活函数为 tanh。

模型输出:softmax 计算每个单词的 OK/BAD 的概率,该模型单独训练以预测源句标签、gap 标签和目标标签。

NuQE

Neural QE

http://www.statmt.org/wmt17/pdf/WMT64.pdf

模型输入:源句 s 和目标句 t 的词级对齐 A,TurboTagger 获得的 POS 标签,每个目标与源对齐的词向量、上下文以及 POS 标签都被进行连接。

模型结构:

(1)两个 FF + ReLU 层,大小为400;

(2)一个 BiGRU + layer norm层,大小为200;

(3)两个 FF + ReLU 层,大小为200;

(4)一个 BiGRU + layer norm层,大小为100;

(5)两个 FF + ReLU 层,大小分别为100和50。

模型输出:softmax 计算 OK/BAD 标签。

 

Predictor-Estimator

http://www.statmt.org/wmt17/pdf/WMT63.pdf

模型结构:

• Predictor,双向 LSTM 编码源句,目标句每个词上下文连接,并作为 softmax 层之前的 attention 中的 query,预测目标句每个词及上下文;

• Estimator,使用 predictor 特征多任务训练,计算每个词的 OK/BAD 标签和句子级 HTER 分数。

带有 stack propagation 的多任务学习,层之间可以相互学习有利的关系。

 

Stacked Ensemble

https://www.aclweb.org/anthology/Q17-1015.pdf

Stack 集成特征,如语法信息及 POS 标签,对齐的单词及上下文,语言模型提供的句法特性和共享任务提供的特征,该系统仅用于为 MT 单词生成单词级标签。模型结构集成及消融实验。

FullStackedQE,将 NeuralQE 和 APE QE 堆叠到 LinearQE 中,是 pure QE 和 APE-based QE 系统的混合。

APE 自动后编辑系统经过人工后编辑数据训练出来,它的输出可以作为伪后编辑数据,可以与创建原始标签相同的方式生成单词级质量标签和句子级分数,这样就可以得到伪QE训练数据。 使用APE-QE的两个变体:1. PSEUDO-APE,它训练常规机器翻译模型并将其输出用作生成伪参考数据;2. 带有额外解码约束的 APE-BERT,以奖励或惩罚源或翻译文本中不存在的单词。

 

 

Word Quality Estimation for NMT

https://github.com/Unbabel/word-level-qe-corpus-builder

WMT word-level QE task,同时考虑流利性和充分性,需要检测错误的单词、插入错误、源句与目标句相关的错误单词,标签 tags 是使用 fast_align, tercom 确定的,使用对齐确定可能与目标句错误相关的源词,并且在 tercom 对齐后,认为一个或多个连续插入是单个 gap(插入)错误。

最后

以上就是凶狠冥王星为你收集整理的OpenKiwi 使用的 QE 系统的全部内容,希望文章能够帮你解决OpenKiwi 使用的 QE 系统所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(49)

评论列表共有 0 条评论

立即
投稿
返回
顶部