Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification
这篇文章讲述了如何利用LSTM+attention机制对文本进行分类整篇论文可以用这张图表表示:Input Layer: 输出层,原始数据Embedding Layer: embedding 层,将原始数据中的单词编码为vectorLSTM Layer: 双向编码,输出每一时刻单词的隐状态Attention Layer: 对LSTM Layer层每一时刻的输出进行attention,加...