优雅犀牛

文章
7
资源
0
加入时间
2年10月24天

图解自注意力机制-通俗易通篇1. 什么是自注意力?2. 图解

BERT、RoBERTa、ALBERT、SpanBERT、DistilBERT、SesameBERT、SemBERT、MobileBERT、TinyBERT和CamemBERT的共同点是什么?答案并不是“ BERT”????。而是“自注意力”????。我们不仅在讨论承载“ BERT”的架构,更准确地说是基于 Transformer 的架构。基于 Transformer 的架构主要用于对语言理解任务进行建模,避免使用神经网络中的递归,而是完全信任自注意力在输入和输出之间绘制全局依赖性的机制。但是,