多层transformer结构_ICML2020 oral: 当Transformer遇到强化学习:GTrXL
一篇来自deepmind的paper: STABILIZING TRANSFORMERS FOR REINFORCEMENT LEARNING有个疑问:本篇论文没有说在训练和测试的时候state是怎么一步一步输入到这个系统中的。读后感:transformer在应对比较小的数据集时表现于LSTM相比并没有什么优势,然而在RL中数据集并不会像NLP中这么多,感觉将transformer用在RL效果。。...