Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification 论文研读0. 个人浅谈1. 摘要2. 引言3. 相关工作4. 模型5. 实验6. 结论
0. 个人浅谈 Attention是在2015年提出的,而本文的发表时间是在2016年,它是ACL会议(NLP国际顶级会议之一)的录用论文(具有一定的研究意义),显而易见的是它是把attention应用到到NLP的关系抽取中的一个成功实践。所以对于AI学习者而言,学习最新的技术,然后将其应用到自己所在的工作领域,这是一件非常有趣的事情。1. 摘要 关系抽取是自然语言处理领域中一个非常重要...