概述
1 介绍
此文章是【CVPR 2019】的文章,主要讲述了Strong-Weak的DA方法;
2 原文链接
《Strong-Weak Distribution Alignment for Adaptive Object Detection》
3 论文译读
3.0 摘要
作者提出了一种用于目标检测的从label-rich到label-poor域的无监督自适应方法,该方法可以极大地降低检测任务中的标注成本。近期,一些方法使用对抗损失对源图像和目标图像的分布进行对齐,这些方法被正式在自适应目标分类器上证明是有效的。然而,对于目标检测,对源图像和目标图像的分布在全局图像级别上进行完全匹配可能无法成功,因为域之间可能会有不同的场景布局和目标对象的不同组合。在另一方面,对如纹理和色彩等局部特征的强匹配是有道理的,因为强匹配不会改变类别层面的语义。这启发我们提出一种新的方法,基于强局部对齐和弱全局对齐进行检测器自适应。本文的主要贡献在于弱对齐模型使用对抗对齐损失关注全局相似图像,而相对来说弱化对全局不相似图像的对齐。除此之外,作者设计了一种强域对齐模型仅观测特征图的局部感受野。实验证明了所提出方法在包含重域飘逸和轻域飘逸的四项数据集上是有效的。
3.1 引言
深度卷积神经网络极大地提升了目标识别精度【18_2012ImageNetCNN】,但是仍然依赖于大量用于训练的标注数据。对于目标检测,数据标注是特别繁重的:每张图像中单个目标类别的每个实例都需要用精确的限位框标注出来。从label-rich的域中迁移预训练模型是一项具有吸引力的解决方案,但是数据集偏差常常会降低模型在新数据上的泛化性能【31_2010AdaptingVC】。
最后
以上就是认真大碗为你收集整理的【CVPR 2019】Strong-Weak Distribution Alignment for Adaptive Object Detection1 介绍2 原文链接3 论文译读的全部内容,希望文章能够帮你解决【CVPR 2019】Strong-Weak Distribution Alignment for Adaptive Object Detection1 介绍2 原文链接3 论文译读所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复