【ACL 2022】Text Smoothing:针对文本分类任务的数据增强方法
数据增强一直都是CV、NLP领域广泛应用的技术,尤其是在数据资源极少的情况下。简单来说,就是扩充训练集的规模来缓解过拟合的问题,提高深度神经网络的鲁棒性。在NLP领域,数据增强的方法通常有: 1)对文本进行增删改;2)回译(翻译到一种语言再翻译回来);3)通过 dropout;4)mixup 技术等。Text Smoothing(文本平滑)。论文:《》数据增强省时省力,如果能够模拟出接近真实样本的分布,确实不失为一种好方法。