我是靠谱客的博主 积极画笔,最近开发中收集的这篇文章主要介绍FAGAN:完全注意力机制(Full Attention)GAN,Self-attention+GAN,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

近期,人工智能专家Animesh Karnewar提出FAGAN——完全注意力机制(Full Attention)GAN,实验的代码和训练的模型可以在他的github库中找到:

https://github.com/akanimax/fagan。

这个fagan示例使用了我创建的名为“attnganpytorch”的包,该包在我的另一个存储库中可以找到:

https://github.com/akanimax/attnganpytorch。

7a2b60331651aa0edd68d72d37e8e6a3d66e175d

FAGAN: Full Attention GAN

介绍

在阅读了SAGAN (Self Attention GAN)的论文后,我想尝试一下,并对它进行更多的实验。由于作者的代码还不可用,所以我决定为它编写一个类似于我之前的“pro-gan-pth”包的一个package。我首先训练了SAGAN论文中描述的模型,然后意识到,我可以更多地使用基于图像的注意机制。此博客是该实验的快速报告。

SAGAN 论文链接:

https://arxiv.org/abs/1805.08318

最后

以上就是积极画笔为你收集整理的FAGAN:完全注意力机制(Full Attention)GAN,Self-attention+GAN的全部内容,希望文章能够帮你解决FAGAN:完全注意力机制(Full Attention)GAN,Self-attention+GAN所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(39)

评论列表共有 0 条评论

立即
投稿
返回
顶部