我是靠谱客的博主 积极画笔,最近开发中收集的这篇文章主要介绍FAGAN:完全注意力机制(Full Attention)GAN,Self-attention+GAN,觉得挺不错的,现在分享给大家,希望可以做个参考。
概述
近期,人工智能专家Animesh Karnewar提出FAGAN——完全注意力机制(Full Attention)GAN,实验的代码和训练的模型可以在他的github库中找到:
https://github.com/akanimax/fagan。
这个fagan示例使用了我创建的名为“attnganpytorch”的包,该包在我的另一个存储库中可以找到:
https://github.com/akanimax/attnganpytorch。
FAGAN: Full Attention GAN
介绍
在阅读了SAGAN (Self Attention GAN)的论文后,我想尝试一下,并对它进行更多的实验。由于作者的代码还不可用,所以我决定为它编写一个类似于我之前的“pro-gan-pth”包的一个package。我首先训练了SAGAN论文中描述的模型,然后意识到,我可以更多地使用基于图像的注意机制。此博客是该实验的快速报告。
SAGAN 论文链接:
https://arxiv.org/abs/1805.08318
最后
以上就是积极画笔为你收集整理的FAGAN:完全注意力机制(Full Attention)GAN,Self-attention+GAN的全部内容,希望文章能够帮你解决FAGAN:完全注意力机制(Full Attention)GAN,Self-attention+GAN所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复