中科院计算所视觉信息处理与学习组
中科院计算所视觉信息处理与学习组


您所在的位置 / 新闻动态

新闻动态

实验室关于场景识别任务中原型无关的场景布局问题研究的论文被IEEE TIP接收

发表日期:2020-07-28      点击击数: 0

近期,实验室关于场景识别任务的论文被IEEE TIP接收。IEEE TIP的全称是IEEE Transactions on Image Processing,是计算机视觉和图像处理领域的国际期刊之一,2020年SCI影响因子为9.340。论文信息如下:

Gongwei Chen, Xinhang Song, Haitao Zeng, and Shuqiang Jiang. “Scene Recognition with Prototype-agnostic Scene Layout”, IEEE Transactions on Image Processing (TIP), 2020. (Accepted)

对于场景识别任务,在场景图像中探索内在的空间结构是一个关键的研究方向。由于较大的类内结构差异,如何构建灵活的结构布局以适应不同的图像特征是一个具有挑战性的问题。现有方法一般基于预定义好的网格或者事先学到的场景类别原型,而这些有限的原型难以克服场景类内的多样性。在本文中,我们提出原型无关的场景布局(Prototype-agnostic Scene Layout)构建方法,以针对每张图片生成空间结构,同时不需要任何原型的约束。我们的原型无关的场景布局可以灵活地捕获场景图像中各异的空间特点并且具有不错的泛化能力。给定一个原型无关的场景布局,我们构建布局图网络,其中图节点是场景布局中的区域,而边由区域间的两种独立的关系构成。布局图网络通过图神经网络将两种拓扑结构(基于空间和语义相似维度)融入图像特征。充足的实验表明我们的方法在通用MIT67和SUN397场景数据集上取得了最好的结果,并且不需要多模型和多尺度的融合方法。此外,我们同样在最大规模之一的场景数据集Places365上进行了实验。实验结果显示提出的方法具有很好的泛化性并且取得了很不错的性能。

 


图1:原型无关的场景布局和布局图网络



视觉信息处理和学习组
  • 单位地址:北京海淀区中关村科学院南路6号
  • 邮编:100190
  • 联系电话:010-62600514
  • Email:yi.cheng@vipl.ict.ac.cn
  • Valse

  • 深度学习大讲堂

版权所有 @ 中科院计算所视觉信息处理与学习组 京ICP备05002829号 京公网安备1101080060