ECCV 2018 最佳论文名单公布,何恺明再添一项论文奖

雷锋网 AI 科技评论消息,9 月 8 日-14 日,2018 欧洲计算机视觉大会(ECCV
2018)在德国慕尼黑召开,ECCV 每两年举办一次,与 CVPR、ICCV
共称为计算机视觉领域三大顶级学术会议,每年录用论文约 300 篇。根据 ECCV
2018 宣布的最终结果,商汤科技及联合实验室共有 37
篇论文入选,主要集中在以下领域:大规模人脸与人体识别、物体检测与跟踪、自动驾驶场景理解与分析、视频分析、3D
视觉、底层视觉算法、视觉与自然语言的综合理解等。此外,商汤科技在 2018 年
COCO 比赛物体检测(Detection)项目中夺得冠军,开源 mm-detection
检测库。凭借以上事项,商汤科技在雷锋网旗下学术频道 AI
科技评论数据库产品「AI 影响因子」中有相应加分。

图片 1

在 test-dev
上,商汤团队对上述框架进行了全面测试,其中单模型和多模型(最终提交的结果来自于五个模型混合的框架)的
mask AP 分别达到了 47.4% 和
49.0%,比去年冠军(也是商汤团队获得)的结果(44.0% 和 46.3%)有约 3
个百分点的明显提高。在传统的基于检测框的指标 bbox AP
上,这个新的框架也分别达到了单模型 54.1% 和多模型的 56.0%
的性能,比去年冠军的结果(50.5% 和 52.6%)也有较大的提升。

原标题:ECCV 2018 最佳论文名单公布,何恺明再添一项论文奖

此外,在 ECCV 期间,香港中文大学-商汤联合实验室还开源了检测库
mm-detection(
Faster RCNN,Mask RCNN 和 R-FCN
等,以及各种新型框架,从而大大加快检测技术研究的效率。返回搜狐,查看更多

  • 组归一化
  • 论文作者:Facebook
    人工智能研究院吴育昕、何恺明。(又双叒叕是何恺明,往期最佳论文奖已经有
    ICCV 2017 最佳论文以及两次 CVPR
    最佳论文,可以说是最亮眼的华人研究人员之一了)
  • 论文内容:雷锋网 AI 科技评论往期文章介绍过这篇论文的重点内容,参见
    这里
  • 论文地址:

(2)通过特征导引产生稀疏锚点,而不是使用传统的规则分布的密集锚点。这种特征导引的方案使得锚点的投放更为精准,平均召回率提升了超过10个百分点。

Koenderink 奖 – 时间检验奖(两篇,来自 ECCV 2008)

图片 2

  • 根据 RGB 图像检测 6 维位姿的隐式三维朝向学习
  • 论文摘要:作者们提出了一个 RGB
    彩色图像处理系统,它可以进行实时的物体检测与 6
    维位姿估计。其中的全新的三维朝向估计器是基于降噪自动编码的一个变种,然后借助「任务随机化」(domain
    randomization)技巧用 3D
    模型的模拟视角进行训练。这个所谓的「增强自动编码器」相比现有的方法有数个优点:它不需要真实的、标注过位姿的训练数据,它可以泛化到多种不同的测试传单器上,并且天然地就可以处理物体和视角的对称性。这个模型学到的并不是从输入图像到物体位姿的显式映射,实际上它会根据图像样本在隐含空间内建立一个隐式的物体位姿表征。基于
    T-LESS 和 LineMOD
    数据集的实验表明所提的方法不仅比类似的基于模型的方法有更好的表现,而且表现也接近目前顶级的、需要真实的位姿标注图像的方法。
    • 论文地址:

在入选论文《量化模仿-训练面向物体检测的极小 CNN 模型(Quantization
Mimic: Towards Very Tiny CNN for Object
Detection)》中,提出了一种简单而通用的框架—量化模仿,来训练面向物体检测任务的极小
CNN 模型。作者提出联合模仿与量化的方法来减小物体检测 CNN
模型的参数量实现加速。在有限计算量的限制下,该框架在 Pascal VOC 和 WIDER
Face 数据集的物体检测性能均超越了当前物体检测的先进水平。

Semi-supervised On-Line Boosting for Robust Tracking

(3)采用一种新型的FishNet网络结构,它有效地保留和修正多个尺度的信息,能更有效地用于图像级,区域级,以及像素级预测任务。

ECCV 还在继续进行当中,雷锋网 AI
科技评论也有多个角度的论文解读、会议动态文章。更多信息请继续关注。感谢中国科学院自动化研究所杨阳提供的现场资讯。返回搜狐,查看更多

(1)新的多任务混合级联架构(hybrid
cascade)。通过把不同子任务进行逐级混合,这种新架构有效地改善了整个检测过程中的信息流动。

  • GANimation:基于解剖学知识从单张图像生成人脸表情动画
  • 论文摘要:生成式对抗性网络(GANs)的近期进步已经在面部表情生成任务中展现出了令人惊喜的结果。这项任务上最成功的架构是
    StarGAN,它把 GANs
    的图像生成过程限定在了一个具体的范围中,也就是一组不同的人做出同一个表情的照片。这种方法虽然很有效,但是它只能生成若干种离散的表情,具体是哪一种由训练数据的内容决定。为了消除这种限制,作者们在这篇论文中提出了一种新的
    GAN 条件限定方式,它基于的是动作单元(Action
    Units)的标注,而动作单元标注就可以在一个连续的流形中描述足以定义人类表情的解剖学面部动作。通过这种方法,作者们得以控制每一个动作单元的激活程度,并且组合多个多个动作单元。除此之外,作者们还提出了一个完全无监督的策略用于训练模型,它只需要标注了激活的动作单元的图像,然后通过注意力机制的应用就可以让网络对于背景和光照条件的改变保持鲁棒。大量实验评估表明他们的方法比其他的条件生成方法有明显更好的表现,不仅表现在有能力根据解剖学上可用的肌肉动作生成非常多种多样的表情,而且也能更好地处理来自不同分布的图像。
    • 论文地址:

在 2018 年的 COCO
比赛中,商汤科技研究员和香港中文大学-商汤联合实验室同学组成的团队在物体检测(Detection)项目中夺得冠军。在此次竞赛中,商汤团队开发了如下三项全新技术,获得了大幅度的性能提升:

最佳论文提名(Best Paper Award, Honorable Mention,两篇)

原标题:商汤 37 篇论文入选 ECCV 2018,开源 mm-detection 检测库

Hamming embedding and weak geometric consistency for large scale image
search

在商汤入选 ECCV 2018 论文《人脸识别的瓶颈在于数据集噪声(The Devil of
Face Recognition is in the
Noise)》中,对于现有人脸数据集中的标签噪声问题进行了深入研究,对
MegaFace 和 MS-Celeb-1M
数据集中的噪声特性和来源做了全面的分析,发现干净子集对于提高人脸识别精度效果显著。

GANimation: Anatomically-aware Facial Animation from a Single Image

发表评论

电子邮件地址不会被公开。 必填项已用*标注