概述
点击上方“3D视觉工坊”,选择“星标”
干货第一时间送达
导读:目标跟踪是计算机视觉领域中非常热门且具有挑战性的研究主题之一。近年来,基于深度学的的目标跟踪取得了巨大的进展,为了方便大家研究学习,极市整理了一份2019年至2020年的目标跟踪相关资源合集,包括顶会论文(CVPR/ECCV/ICCV)、算法汇总以及目标跟踪国内外优秀实验室,详见下文:
顶会论文
2020
CVPR2020(共33篇)
【1】How to Train Your Deep Multi-Object Tracker
作者|Yihong Xu, Aljosa Osep, Yutong Ban, Radu Horaud, Laura Leal-Taixe, Xavier Alameda-Pineda
论文|https://arxiv.org/abs/1906.06618
代码|https://github.com/yihongXU/deepMOT
【2】Learning a Neural Solver for Multiple Object Tracking
作者|Guillem Braso, Laura Leal-Taixe
论文|https://arxiv.org/abs/1912.07515
代码|https://github.com/dvl-tum/mot_neural_solver(PyTorch)
【3】GNN3DMOT: Graph Neural Network for 3D Multi-Object Tracking With 2D-3D Multi-Feature Learning
作者|Xinshuo Weng, Yongxin Wang, Yunze Man, Kris M. Kitani
论文|https://arxiv.org/abs/2006.07327
代码|https://github.com/xinshuoweng/GNN3DMOT(PyTorch)
【4】A Unified Object Motion and Affinity Model for Online Multi-Object Tracking
作者|Junbo Yin, Wenguan Wang, Qinghao Meng, Ruigang Yang, Jianbing Shen
论文|https://arxiv.org/abs/2003.11291
代码|https://github.com/yinjunbo/UMA-MOT
【5】Learning Multi-Object Tracking and Segmentation From Automatic Annotations
作者|Lorenzo Porzi, Markus Hofinger, Idoia Ruiz, Joan Serrat, Samuel Rota Bulo, Peter Kontschieder
论文|https://arxiv.org/abs/1912.02096
ECCV2020(共26篇)
【1】Segment as Points for Efficient Online Multi-Object Tracking and Segmentation(Oral)
论文|https://arxiv.org/abs/2007.01550
作者|Zhenbo Xu, Wei Zhang, Xiao Tan, Wei Yang, Huan Huang, Shilei Wen, Errui Ding, Liusheng Huang
代码|https://github.com/detectRecog/PointTrack
【2】Chained-Tracker: Chaining Paired Attentive Regression Results for End-to-End Joint Multiple-Object Detection and Tracking
论文|https://arxiv.org/abs/2007.14557
作者|Jinlong Peng, Changan Wang, Fangbin Wan, Yang Wu, Yabiao Wang, Ying Tai, Chengjie Wang, Jilin Li, Feiyue Huang, Yanwei Fu
【3】TAO: A Large-scale Benchmark for Tracking Any Object
论文|https://arxiv.org/abs/2005.10356
作者|Achal Dave, Tarasha Khurana, Pavel Tokmakov, Cordelia Schmid, Deva Ramanan
代码|https://github.com/TAO-Dataset/tao
【4】Weakly-Supervised Cell Tracking via Backward-and-Forward Propagation
论文|http://arxiv.org/abs/2007.15258
作者|Kazuya Nishimura, Junya Hayashida, Chenyang Wang, Dai Fei Elmer Ker, Ryoma Bise
代码|https://github.com/naivete5656/WSCTBFP
【5】Towards End-to-end Video-based Eye-Tracking
论文|https://arxiv.org/abs/2007.13120
作者|Seonwook Park, Emre Aksan, Xucong Zhang, Otmar Hilliges
代码|https://ait.ethz.ch/projects/2020/EVE
2019
CVPR2019(共19篇)
【1】SiamRPN++: Evolution of Siamese Visual Tracking With Very Deep Networks
作者|Bo Li, Wei Wu, Qiang Wang, Fangyi Zhang, Junliang Xing, Junjie Yan
论文|https://arxiv.org/abs/1812.11703
代码|https://github.com/STVIR/pysot
【2】Tracking by Animation: Unsupervised Learning of Multi-Object Attentive Trackers
作者|Zhen He, Jian Li, Daxue Liu, Hangen He, David Barber
论文|https://arxiv.org/abs/1809.03137
代码|https://github.com/zhen-he/tracking-by-animation
【3】Target-Aware Deep Tracking
作者|Xin Li, Chao Ma, Baoyuan Wu, Zhenyu He, Ming-Hsuan Yang
论文|https://arxiv.org/abs/1904.01772
代码|https://github.com/XinLi-zn/TADT
【4】SPM-Tracker: Series-Parallel Matching for Real-Time Visual Object Tracking
作者|Guangting Wang, Chong Luo, Zhiwei Xiong, Wenjun Zeng
论文|https://arxiv.org/abs/1904.04452
【5】Deeper and Wider Siamese Networks for Real-Time Visual Tracking
作者|Zhipeng Zhang, Houwen Peng
论文|https://arxiv.org/abs/1901.01660
代码|https://github.com/researchmm/SiamDW
ICCV2019(共11篇)
【1】Learning Discriminative Model Prediction for Tracking(Oral)
作者|Goutam Bhat, Martin Danelljan, Luc Van Gool, Radu Timofte
论文|https://arxiv.org/abs/1904.07220
代码|https://github.com/visionml/pytracking
【2】GradNet: Gradient-Guided Network for Visual Object Tracking
作者|Peixia Li, Boyu Chen, Wanli Ouyang, Dong Wang, Xiaoyun Yang, Huchuan Lu
论文|https://arxiv.org/abs/1909.06800
代码|https://github.com/LPXTT/GradNet-Tensorflow
【3】Learning the Model Update for Siamese Trackers
作者|Lichao Zhang, Abel Gonzalez-Garcia, Joost van de Weijer, Martin Danelljan, Fahad Shahbaz Khan
论文|https://arxiv.org/abs/1908.00855
代码|https://github.com/zhanglichao/updatenet
【4】Skimming-Perusal' Tracking: A Framework for Real-Time and Robust Long-Term Tracking
作者|Bin Yan, Haojie Zhao, Dong Wang, Huchuan Lu, Xiaoyun Yang
论文|https://arxiv.org/abs/1909.01840
代码|https://github.com/iiau-tracker/SPLT
【5】Learning Aberrance Repressed Correlation Filters for Real-Time UAV Tracking
作者|Ziyuan Huang, Changhong Fu, Yiming Li, Fuling Lin, Peng Lu
论文|https://arxiv.org/abs/1908.02231
代码|https://github.com/vision4robotics/ARCF-tracker
算法
首先推荐两篇综述性论文:
【1】Deep Learning for Visual Tracking: A Comprehensive Survey
论文链接:https://arxiv.org/pdf/1912.00535.pdf
23页、207篇参考文献的多目标跟踪综述(2013-2019)。在OTB2013、OTB2015、VOT2018和LaSOT上对基于深度学习的最新目标跟踪方法进行了全面综述:介绍14种常用视觉跟踪数据集,超过50种历年的SOTA算法(如SiamRPN++)。
【2】DEEP LEARNING IN VIDEO MULTI-OBJECT TRACKING: A SURVEY
论文链接:https://arxiv.org/pdf/1907.12740v4.pdf
部分benchmark汇总:
【1】LaSOT:"Deep Meta Learning for Real-Time Visual Tracking based on Target-Specific Feature Space." arXiv (2018)
paper:https://arxiv.org/pdf/1809.07845.pdf
project:https://cis.temple.edu/lasot/
【2】OxUvA long-term dataset+benchmark:"Long-term Tracking in the Wild: a Benchmark." ECCV (2018)
paper:https://arxiv.org/pdf/1803.09502.pdf
project:https://oxuva.github.io/long-term-tracking-benchmark/
【3】TrackingNet: "TrackingNet: A Large-Scale Dataset and Benchmark for Object Tracking in the Wild." ECCV (2018)
paper:https://arxiv.org/pdf/1803.10794.pdf
project:https://silviogiancola.github.io/publication/2018-03-trackingnet/details/
实验室
(以下排名不分先后,如有遗漏,欢迎补充)
上海交通大学:林巍峣
https://www.sohu.com/a/162408443_473283
大连理工大学:卢湖川
http://ice.dlut.edu.cn/lu/
澳大利亚国立大学:Hongdong Li
http://users.cecs.anu.edu.au/~hongdong/
香港理工大学:Lei Zhang
http://www4.comp.polyu.edu.hk/~cslzhang/
中国科学院自动化研究所:张天柱
http://nlpr-web.ia.ac.cn/mmc/homepage/tzzhang/index.html
上海交通大学:CHAO MA
https://www.chaoma.info/
加州大学默塞德分校:Ming-Hsuan Yang
https://faculty.ucmerced.edu/mhyang/
卢布尔雅那大学卢布尔雅那大学:Matej Kristan
https://www.vicos.si/People/Matejk
哈佛大学:João F. Henriques,Luca Bertinetto
https://www.robots.ox.ac.uk/~joao/
Torr Vision Group
https://www.robots.ox.ac.uk/~tvg/people.php
苏黎世联邦理工学院:Martin Danelljan
https://users.isy.liu.se/cvl/marda26/
商汤科技tracking组:武伟,王强,朱政
腾讯 AI Lab 宋奕兵 https://ybsong00.github.io/
阿里巴巴:ET实验室
参考:
1.CVPR 2020 论文大盘点—目标跟踪篇
https://mp.weixin.qq.com/s/IaizDEfvRc0JrLrF--P2eA
2.https://github.com/foolwood/benchmark_results
本文仅做学术分享,如有侵权,请联系删文。
下载1
在「3D视觉工坊」公众号后台回复:3D视觉,即可下载 3D视觉相关资料干货,涉及相机标定、三维重建、立体视觉、SLAM、深度学习、点云后处理、多视图几何等方向。
下载2
在「3D视觉工坊」公众号后台回复:3D视觉优质源码,即可下载包括结构光、标定源码、缺陷检测源码、深度估计与深度补全源码、点云处理相关源码、立体匹配源码、单目、双目3D检测、基于点云的3D检测、6D姿态估计源码汇总等。
下载3
在「3D视觉工坊」公众号后台回复:相机标定,即可下载独家相机标定学习课件与视频网址;后台回复:立体匹配,即可下载独家立体匹配学习课件与视频网址。
重磅!3DCVer-学术论文写作投稿 交流群已成立
扫码添加小助手微信,可申请加入3D视觉工坊-学术论文写作与投稿 微信交流群,旨在交流顶会、顶刊、SCI、EI等写作与投稿事宜。
同时也可申请加入我们的细分方向交流群,目前主要有3D视觉、CV&深度学习、SLAM、三维重建、点云后处理、自动驾驶、CV入门、三维测量、VR/AR、3D人脸识别、医疗影像、缺陷检测、行人重识别、目标跟踪、视觉产品落地、视觉竞赛、车牌识别、硬件选型、学术交流、求职交流等微信群。
一定要备注:研究方向+学校/公司+昵称,例如:”3D视觉 + 上海交大 + 静静“。请按照格式备注,可快速被通过且邀请进群。原创投稿也请联系。
▲长按加微信群或投稿
▲长按关注公众号
3D视觉从入门到精通知识星球:针对3D视觉领域的知识点汇总、入门进阶学习路线、最新paper分享、疑问解答四个方面进行深耕,更有各类大厂的算法工程人员进行技术指导。与此同时,星球将联合知名企业发布3D视觉相关算法开发岗位以及项目对接信息,打造成集技术与就业为一体的铁杆粉丝聚集区,近2000星球成员为创造更好的AI世界共同进步,知识星球入口:
学习3D视觉核心技术,扫描查看介绍,3天内无条件退款
圈里有高质量教程资料、可答疑解惑、助你高效解决问题
整理不易,请给工坊点赞和在看!
最后
以上就是个性寒风为你收集整理的大合集!近两年目标跟踪资源全汇总(论文、模型代码、优秀实验室)的全部内容,希望文章能够帮你解决大合集!近两年目标跟踪资源全汇总(论文、模型代码、优秀实验室)所遇到的程序开发问题。
如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。
发表评论 取消回复