史上最全!历年 CVPR 最佳论文盘点(2000 年
时间:2019-02-27 15:28 来源:百度新闻 作者:巧天工 点击:次
史上最全!历年 CVPR 最佳论文盘点(2000 年——2018 年)
2019年02月27日
雷锋网(公众号:雷锋网)AI科技评论按:作为 雷锋网(公众号:雷锋网) AI 科技评论按:作为计算机视觉领域的顶级学术会议,CVPR 2019 近期公布了最终论文接收结果,引来学界密切关注。据悉,CVPR 2019 今年一共获得 5165 篇有效提交论文,最终抉出了 1300 篇接收论文,接收率达到 25.2% 。 (接收论文列表:) 正当学界纷纷议论各单位获接收论文多寡的当儿,雷锋网 AI 科技评论为大家精心整理了一份从 2000 年——2018 年的 CVPR 最佳论文清单,借此对这批计算机领域的重要论文进行复习。 2018年最佳论文 任务学:任务迁移学习的解耦 Taskonomy: Disentangling Task Transfer Learning 核心内容:论文研究了一个非常新颖的课题,那就是研究视觉任务之间的关系,根据得出的关系可以帮助在不同任务之间做迁移学习。该论文提出了「Taskonomy」——一种完全计算化的方法,可以量化计算大量任务之间的关系,从它们之间提出统一的结构,并把它作为迁移学习的模型。实验设置上,作者首先找来一组一共 26 个任务,当中包括了语义、 2D、2.5D、3D 任务,接着为任务列表里的这 26 个任务分别训练了 26 个任务专用神经网络。结果显示,这些迁移后的模型的表现已经和作为黄金标准的任务专用网络的表现差不多好。论文提供了一套计算和探测相关分类结构的工具,其中包括一个求解器,用户可以用它来为其用例设计有效的监督策略。 论文链接: 2017年最佳论文 密集连接的卷积网络 Densely Connected Convolutional Networks 核心内容:近期的研究已经展现这样一种趋势,如果卷积网络中离输入更近或者离输出更近的层之间的连接更短,网络就基本上可以更深、更准确,训练时也更高效。这篇论文就对这种趋势进行了深入的研究,并提出了密集卷积网络(DenseNet),其中的每一层都和它之后的每一层做前馈连接。对于以往的卷积神经网络,网络中的每一层都和其后的层连接,L 层的网络中就具有 L 个连接;而在 DenseNet 中,直接连接的总数则是 L(L+1)/2 个。对每一层来说,它之前的所有的层的 feature-map 都作为了它的输入,然后它自己的 feature-map 则会作为所有它之后的层的输入。 论文链接: 通过对抗训练从模拟的和无监督的图像中学习 Learning from Simulated and Unsupervised Images through Adversarial Training 核心内容:随着图像领域的进步,用生成的图像训练机器学习模型的可行性越来越高,大有避免人工标注真实图像的潜力。但是,由于生成的图像和真实图像的分布有所区别,用生成的图像训练的模型可能没有用真实图像训练的表现那么好。为了缩小这种差距,论文中提出了一种模拟+无监督的学习方式,其中的任务就是学习到一个模型,它能够用无标注的真实数据提高模拟器生成的图片的真实性,同时还能够保留模拟器生成的图片的标注信息。论文中构建了一个类似于 GANs 的对抗性网络来进行这种模拟+无监督学习,只不过论文中网络的输入是图像而不是随机向量。为了保留标注信息、避免图像瑕疵、稳定训练过程,论文中对标准 GAN 算法进行了几个关键的修改,分别对应「自我正则化」项、局部对抗性失真损失、用过往的美化后图像更新鉴别器。论文链接:2016年最佳论文图像识别的深度残差学习Deep Residual Learning for Image Recognition核心内容:在现有基础下,想要进一步训练更深层次的神经网络是非常困难的。我们提出了一种减轻网络训练负担的残差学习框架,这种网络比以前使用过的网络本质上层次更深。我们明确地将这层作为输入层相关的学习残差函数,而不是学习未知的函数。同时,我们提供了全面实验数据,这些数据证明残差网络更容易优化,并且可以从深度增加中大大提高精度。我们在 ImageNet 数据集用 152 层--比 VGG 网络深 8 倍的深度来评估残差网络,但它仍具有较低的复杂度。在 ImageNet 测试集中,这些残差网络整体达到了 3.57% 的误差。该结果在 2015 年大规模视觉识别挑战赛分类任务中赢得了第一。此外,我们还用了 100 到 1000 层深度分析了的 CIFAR-10。对于大部分视觉识别任务,深度表示是非常重要的。仅由于极深的表示,在 COCO 对象检查数据时,我们就得到了近 28% 相关的改进。深度剩余网络是我们提交给 ILSVRC 和 COCO2015 竞赛的基础,而且在 ImageNet 检测任务,ImageNet 定位,COCO 检测和 COCO 分割等领域赢我们获得了第一。 论文链接:https://www.cv-foundation.org/openaccess/content_cvpr_2016/papers/He_Deep_Residual_Learning_CVPR_2016_paper.pdf 2015年最佳论文 动态融合:实时非刚性场景的重建与跟踪 DynamicFusion: Reconstruction and Tracking of Non-rigid Scenes in Real-Time (责任编辑:波少) |