我是靠谱客的博主 迷路期待,最近开发中收集的这篇文章主要介绍Paper Reading: SalGAN: visual saliency prediction with adversarial networks,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

Paper Reading Note

URL:
https://arxiv.org/pdf/1701.01081.pdf

TL;DR

本文是18年cviu的一篇文章,主要是用GAN作显著点检测的任务,模型很简单,可以参考其利用GAN增强的思想。
在这里插入图片描述
如上图所示,对一副图像的关键点检测,本文的检测方法效果明显优于传统的交叉熵方法。

Algorithm

在这里插入图片描述
模型框架如上图所示,主要由一个generator和discriminator组成。

  1. generator部分采用了去除最后两层的vgg-16,一部分作为encoder(Conv-VGG)一部分作为decoder(Conv-Scratch)。
  2. 将生成的feature map和ground truth做pixel-wise的BCE Loss:
    在这里插入图片描述
  3. 一般模型到这一步就结束了,本文提出了在此基础上添加一个discriminator对生成的模型和ground truth进行判别,相当于添加了discriminator传来的loss:
    在这里插入图片描述
  4. 对于discriminator的训练还是跟基本的GAN没有区别:
    在这里插入图片描述

Results


这个模型跟许多SOTA方法比起来效果都可以,不过被近期的几个方法给压制了。
在这里插入图片描述
最后模型还给出了传统方法和GAN网络生成的图进行比较,可以看到GAN网络的图像更加平滑了。

Thoughts

对关键点检测不是很熟悉,但是从本文的模型看来十分简单。不过这也启发了几乎大部分的encoder-decoder模型都可以用GAN来辅助。

最后

以上就是迷路期待为你收集整理的Paper Reading: SalGAN: visual saliency prediction with adversarial networks的全部内容,希望文章能够帮你解决Paper Reading: SalGAN: visual saliency prediction with adversarial networks所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(40)

评论列表共有 0 条评论

立即
投稿
返回
顶部