中科院计算所视觉信息处理与学习组
中科院计算所视觉信息处理与学习组


您所在的位置 / 新闻动态

新闻动态

实验室关于人体实例分割的论文被IEEE TIP接收

发表日期:2021-07-16      点击击数: 650


  近日,实验室关于人体实例分割的工作被IEEE TIP接受。TIP的全称为Transactions on Image Processing,是计算机视觉和图像处理领域的国际期刊之一,2021SCI影响因子为10.856。论文信息如下:

 

  Xiangzhou Zhang, Bingpeng Ma, Hong Chang, Shiguang Shan, Xilin Chen, "Location Sensitive Network for Human Instance Segmentation", IEEE Transactions on Image Processing (TIP), 2021. (Accepted)

 

  实例分割是计算机视觉的基础任务,也是图像及视频理解的关键一步。在一幅图像中,实例的数量往往是不确定的,这为实例的区分带来了困难。当前基于单阶段结构的实例分割方法通常忽略了对实例位置信息的利用。然而,位置是实例区分的关键信息。针对这个问题,本文提出位置敏感网络,通过人体关键点的位置信息的利用来提升人体实例分割的精度。一方面,姿态关注模块通过坐标编码将位置信息编码到关注区域中。另一方面,关键点敏感组合基于人体关键点和随机点构建实例的点表示。在像素分类时,点表示能够提供实例相关的位置信息,同时扩大感受野。最后,位置敏感网络的总体框架图如下:



  总体而言,本工作的主要贡献如下:1)在单阶段框架下,分别提出姿态关注模块和关键点敏感组合,利用人体关键点的位置信息帮助实例的区分;2)在公开数据集上验证了本文方法的有效性;3)本文方法在速度和精度上均超过两阶段人体实例分割方法如Pose2Seg,且在严重遮挡的场景下有更好的表现。



视觉信息处理和学习组
  • 单位地址:北京海淀区中关村科学院南路6号
  • 邮编:100190
  • 联系电话:010-62600514
  • Email:yi.cheng@vipl.ict.ac.cn
  • Valse

  • 深度学习大讲堂

版权所有 @ 中科院计算所视觉信息处理与学习组 京ICP备05002829号-1 京公网安备1101080060