概述
Learning Neural Templates for Text Generation
- 本文主要是对
decoder
进行了改进,使用隐半马尔科夫HSMM
模型作为解码器,并用神经网络实现其中所有概率项的参数化。 - 在完成模型训练后,可以利用Viterbi算法推断出隐状态序列,并将其获取为模板,因此可以很方便地对模板进行控制并利用模板引导下一步的文本生成。
- 性能可以和E2E模型媲美,而且解释性及可控性更强。
Challenges in Data-to-document Generation
- 作者采集了大量NBA篮球比赛统计数据以及对应的文字战报,以此发布了新的数据集RotoWire。文本长度更长,可以对输入信息进行一定推理。
- 存在逻辑错误,在长文本生成时更加严重
- 提出了一种抽取式评价方法,一定程度上弥补BLEU不足
A Deep Ensemble Model with Slot Alignment for Sequence-to-Sequence Natural Language Generation
- E2E挑战赛中表现最好的模型。
- 亮点包括
- 去噪。通过自行构建的启发式slot aligner,剔除训练数据中一些没有被对应文本提及的属性值;
- 重排。根据候选文本同数据属性槽的对其结果重新设计排序规则
- 模型整体表现非常稳定,输出文本错误较少
End-to-End Content and Plan Selection for Data-to-Text Generation
- 在经典seq2seq模型上引入多个解码器,并通过隐变量因子来指定最终文本是由哪个解码器所生成。
- 整合了常用的attention机制、copy机制、coverage机制,是比较完备和先进的基础模型
Operation-guided Neural Networks for High Fidelity Data-To-Text Generation
- 提出了基于运算指引的神经文本生成模型。
- 预先执行好若干种预定义的运算操作,
- 在进行文本生成时,解码器从输入数据和运行结果中利用门限(gating)机制动态采用所使用的信息来源。
- 将运算结果中的数值进行自动分段处理,解决数值数据稀疏性问题
- 返不了ESPN数据集,比RotoWire更短,数据文本覆盖率更高
Learning Latent Semantic Annotations for Grounding Natural Language to Structured Data PDF code
- 侧重于细粒度显式建立起文本与输入数据之间的关系,从而得到可解释、可控制的模型。
- 文中将建立对应关系的过程用序列标注的方式来实现,将表征词汇语义的标注视为隐变量,建立隐半马尔可夫模型(HSMM)进行学习与推断。
- 模型中对于字符串变量、属性变量、数值变量等不同类型之间的对应关系分别采用了不同的概率模型来建模
- 模型推断得到的概率可以用来为特定的数据信息获取多样的词汇表达,而对齐结果本身也可以据此为提供丰富的规则和模板。
- 可解释性、可控性、丰富性
最后
以上就是有魅力咖啡为你收集整理的部分data2text模型整理的全部内容,希望文章能够帮你解决部分data2text模型整理所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复