論文盤點:CVPR 2018 Top 20,華人發明的SENet居首!
最近CV君在盤點近幾年三大CV頂會的論文,繼CVPR 2019 、ICCV 2019 、ECCV 2018 Top 20 論文後:
時隔一年,盤點CVPR 2019影響力最大的20篇論文
時隔兩年,盤點ECCV 2018影響力最大的20篇論文
論文盤點:ICCV 2019 Top 20,MobileNetV3居首!
本文盤點CVPR 2018 引用數Top 20 的論文,雖然計劃是隻取前20篇,但實際上是21篇文章,因為最後兩篇文章的引用數恰好相同(截止今日,即2020年8月10日)。
特別值得一提的是 CVPR 2018 引用數最高的論文Squeeze-and-excitation networks(SENet),出自國內自動駕駛公司 Momenta,對整個深度學習研究社群影響巨大。
1。 這些論文涵蓋的方向:
基礎網路結構(SENet、Non-local)、
輕量級網路結構(MobileNetv2、ShuffleNet)、
神經架構搜尋(NASNet)、
影象描述、
GAN(影象轉化、影象合成編輯)、
感知相似度量、
超解析度、
少樣本學習、
點雲3D目標檢測(Voxelnet)、
2D目標檢測(Cascade R-CNN)、
RGB-D 3D目標檢測、
場景理解多工學習、
CNN研究(深度影象先驗)、
光流(PWC-Net)、
影象修復、
對抗學習、
ReID、
人臉識別(CosFace)。
2。 從以上CVPR 2018 熱文中可以看出,網路結構設計(人工設計+機器搜尋網路架構)的文章很多,SENet、Non-local、MobileNetv2、ShuffleNet、NASNet 這些工作都對後來的研究有重大影響,相比於之前我們盤點的 CVPR 2019 、ICCV 2019 、ECCV 2018, (CV君認為)CVPR 2018 可能是最為精彩的。
3。 目標檢測演算法 Cascade R-CNN 到今天依然是COCO資料集上精度最高的演算法之一,而且在眾多CV演算法大賽中折冠。
4。 論文引用是有時間累計效應的,時間越長,引用次數越高,相比於在同一年召開的ECCV 2018 ,CVPR 2018 Top 20 的論文引用量遠高於前者,CVPR 在計算機視覺研究社群的影響力更大!
No. 1 SENet
Squeeze-and-excitation networks
作者 | Jie Hu, Li Shen, Gang Sun
單位 | Momenta;牛津大學
論文 |
https://
arxiv。org/abs/1709。0150
7
解讀 |
https://
zhuanlan。zhihu。com/p/32
702350
程式碼 |
https://
github。com/hujie-frank/
SENet
引用次數 | 3651
SENet 對特徵通道間的相關性進行建模,把重要的特徵進行強化來提升準確率。是2017 ILSVR競賽的冠軍模型,ImageNet Top-5的錯誤率2。251%,比2016年的第一名還要低25%,精度提升巨大。
No. 2 Mobilenetv2
Mobilenetv2: Inverted residuals and linear bottlenecks
作者 | Mark Sandler, Andrew Howard, Menglong Zhu, Andrey Zhmoginov, Liang-Chieh Chen
單位 | 谷歌
論文 |
https://
arxiv。org/abs/1801。0438
1
引用次數 | 2384
No. 3 神經架構搜尋 NASNet
Learning transferable architectures for scalable image recognition
作者 | Barret Zoph, Vijay Vasudevan, Jonathon Shlens, Quoc V。 Le
單位 | Google Brain
論文 |
https://
arxiv。org/abs/1707。0701
2
引用次數 | 1716
No. 4 Shufflenet
Shufflenet: An extremely efficient convolutional neural network for mobile devices
作者 | Xiangyu Zhang, Xinyu Zhou, Mengxiao Lin, Jian Sun
單位 | 曠視
論文 |
https://
arxiv。org/abs/1707。0108
3
程式碼 |
https://
github。com/megvii-model
/ShuffleNet-Series
引用次數 | 1512
No. 5 Non-local 神經網路
Non-local neural networks
作者 | Xiaolong Wang, Ross Girshick, Abhinav Gupta, Kaiming He
單位 | 卡內基梅隆大學;FAIR
論文 |
https://
arxiv。org/abs/1711。0797
1
程式碼 |
https://
github。com/facebookrese
arch/
video-nonlocal-net
引用次數 | 1509
No. 6 影象描述與VQA
Bottom-up and top-down attention for image captioning and visual question answering
作者 | Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, Lei Zhang
單位 | 澳大利亞國立大學;京東;微軟;阿德萊德大學;麥考瑞大學
論文 |
https://
arxiv。org/abs/1707。0799
8
備註 | CVPR 2018 full oral
引用次數 | 1177
No. 7 Stargan
Stargan: Unified generative adversarial networks for multi-domain image-to-image translation
用於多域影象到影象的轉化
作者 | Yunjey Choi, Minje Choi, Munyoung Kim, Jung-Woo Ha, Sunghun Kim, Jaegul Choo
單位 | 高麗大學;NAVER Corp;羅格斯大學;香港科技大學
論文 |
https://
arxiv。org/abs/1711。0902
0
程式碼 |
https://
github。com/yunjey/starg
an
備註 | CVPR 2018 Oral
引用次數 | 1040
No. 8 Pix2PixHD
High-resolution image synthesis and semantic manipulation with conditional gans
條件GAN進行高解析度影象合成和語義操作
作者 | Ting-Chun Wang, Ming-Yu Liu, Jun-Yan Zhu, Andrew Tao, Jan Kautz, Bryan Catanzaro
單位 | 英偉達;UC伯克利
論文 |
https://
arxiv。org/abs/1711。1158
5
程式碼 |
https://
github。com/NVIDIA/pix2p
ixHD
主頁 |
https://
tcwang0509。github。io/pi
x2pixHD/
引用次數 | 1035
No. 9 感知相似性度量
The unreasonable effectiveness of deep features as a perceptual metric
作者 | Richard Zhang, Phillip Isola, Alexei A。 Efros, Eli Shechtman, Oliver Wang
單位 | UC伯克利;OpenAI;Adobe Research
論文 |
https://
arxiv。org/abs/1801。0392
4
程式碼 |
https://
github。com/richzhang/
PerceptualSimilarity
引用次數 | 737
No. 10 RDN 影象超解析度
Residual dense network for image super-resolution
作者 | Yulun Zhang, Yapeng Tian, Yu Kong, Bineng Zhong, Yun Fu
單位 | (美國)東北大學;羅切斯特大學;
論文 |
https://
arxiv。org/abs/1802。0879
7
程式碼 |
https://
github。com/yulunzhang/R
DN
備註 | CVPR 2018 spotlight
引用次數 | 705
No. 11少樣本學習
Learning to compare: Relation network for few-shot learning
作者 | Flood Sung, Yongxin Yang, Li Zhang, Tao Xiang, Philip H。S。 Torr, Timothy M。 Hospedales
單位 | 倫敦瑪麗女王大學;牛津大學;愛丁堡大學
論文 |
https://
arxiv。org/abs/1711。0602
5
程式碼 |
https://
github。com/floodsung/
LearningToCompare_FSL
引用次數 | 702
No. 12 Voxelnet 點雲3D目標檢測
Voxelnet: End-to-end learning for point cloud based 3d object detection
基於點雲的3D目標檢測的端到端學習
作者 | Yin Zhou, Oncel Tuzel
單位 | Apple Inc
論文 |
https://
arxiv。org/abs/1711。0639
6
程式碼 |
https://
github。com/reinforcemen
tdriving/
VoxelNet_CVPR_2018_PointCloud(非官方)
解讀 |
https://
zhuanlan。zhihu。com/p/40
051716
引用次數 | 664
No. 13 Cascade r-cnn 目標檢測
Cascade r-cnn: Delving into high quality object detection
作者 | Zhaowei Cai, Nuno Vasconcelos
單位 | 加利福尼亞大學聖迭戈分校
論文 |
https://
arxiv。org/abs/1712。0072
6
程式碼 |
https://
github。com/zhaoweicai/c
ascade-rcnn
解讀 |
https://
zhuanlan。zhihu。com/p/35
882192
https://
zhuanlan。zhihu。com/p/36
095768
引用次數 | 604
No. 14 RGB-D 3D目標檢測
Frustum pointnets for 3d object detection from RGB-D data
從RGB-D資料中檢測3D目標的Frustum點陣網
作者 | Charles R。 Qi, Wei Liu, Chenxia Wu, Hao Su, Leonidas J。 Guibas
單位 | 斯坦福大學;Nuro, Inc;加利福尼亞大學聖迭戈分校
論文 |
https://
arxiv。org/abs/1711。0848
8
程式碼 |
https://
github。com/charlesq34/f
rustum-pointnets
解讀 |
https://
zhuanlan。zhihu。com/p/41
634956
引用次數 | 589
No. 15 多工學習、場景理解
Multi-task learning using uncertainty to weigh losses for scene geometry and semantics
作者 | Alex Kendall, Yarin Gal, Roberto Cipolla
單位 | 劍橋大學;牛津大學
論文 |
https://
arxiv。org/abs/1705。0711
5
程式碼 |
https://
github。com/ranandalon/m
tl
(非官方)
引用次數 | 575
No. 16 深度影象先驗
Deep image prior
作者 | Dmitry Ulyanov, Andrea Vedaldi, Victor Lempitsky
單位 | (俄羅斯)Skolkovo 科學技術研究院;牛津大學
論文 |
https://
arxiv。org/abs/1711。1092
5
程式碼 |
https://
github。com/DmitryUlyano
v/deep-image-prior
主頁 |
https://
dmitryulyanov。github。io
/
deep_image_prior
引用次數 | 552
這是一篇神奇的文章,它表明CNN天然理解影象應該是什麼樣子的。
No. 17 光流
Pwc-net: Cnns for optical flow using pyramid, warping, and cost volume
作者 | Deqing Sun, Xiaodong Yang, Ming-Yu Liu, Jan Kautz
單位 | 英偉達
論文 |
https://
arxiv。org/abs/1709。0237
1
程式碼 |
https://
github。com/NVlabs/PWC-N
et
解讀 |
https://www。
52cv。net/?
p=414
備註 | CVPR 2018 Oral
引用次數 | 527
No. 18 影象修復
Generative image inpainting with contextual attention
作者 | Jiahui Yu, Zhe Lin, Jimei Yang, Xiaohui Shen, Xin Lu, Thomas S。 Huang
單位 | 伊利諾伊大學厄巴納-香檳分校;Adobe Research
論文 |
https://
arxiv。org/abs/1801。0789
2
程式碼 |
https://
github。com/JiahuiYu/gen
erative
_inpainting
主頁 |
http://
jiahuiyu。com/deepfill/
引用次數 | 522
No. 19 對抗學習
Robust Physical-World Attacks on Deep Learning Models
作者 | Kevin Eykholt, Ivan Evtimov, Earlence Fernandes, Bo Li, Amir Rahmati, Chaowei Xiao, Atul Prakash, Tadayoshi Kohno, Dawn Song
單位 | 密歇根大學;華盛頓大學;伯克利;三星美國研究院和石溪大學
論文 |
https://
arxiv。org/abs/1707。0894
5
程式碼 |
https://
github。com/evtimovi/rob
ust_
physical_perturbations
引用次數 | 511
No. 20 人員重識別
Harmonious attention network for person re-identification
作者 | Wei Li, Xiatian Zhu, Shaogang Gong
單位 | 倫敦瑪麗女王大學;Vision Semantics Ltd
論文 |
https://
arxiv。org/abs/1802。0812
2
引用次數 | 485
No. 20(並列)人臉識別 CosFace
Cosface: Large margin cosine loss for deep face recognition
作者 | Hao Wang, Yitong Wang, Zheng Zhou, Xing Ji, Dihong Gong, Jingchao Zhou, Zhifeng Li, Wei Liu
單位 | 騰訊AI Lab
論文 |
https://
arxiv。org/abs/1801。0941
4
引用次數 | 485