内向哈密瓜

文章
7
资源
0
加入时间
2年10月17天

基于BERT做中文文本分类(情感分析)

Bert:BERT是一种预训练语言表示的方法,这意味着我们在大型文本语料库(例如Wikipedia)上训练通用的“语言理解”模型,然后将该模型用于我们关心的下游NLP任务,BERT优于之前的方法,因为它是第一个用于预训练NLP的无监督,深度双向系统。相关论文:《Attention Is All You Need》《BERT:Pre-training of Deep Bidirect...