中科院计算所视觉信息处理与学习组
中科院计算所视觉信息处理与学习组


您所在的位置 / 新闻动态

新闻动态

实验室3篇文章被NeurIPS 2019接受

发表日期:2019-09-08      点击击数: 438

2019年9月5日,实验室共有3篇论文被NeurIPS2019接收。NeurIPS的全称是Annual Conference on Neural Information Processing Systems (神经信息处理系统年度会议) ,是CCF-A类国际会议,也是机器学习两大国际会议(另外一个是ICML)之一。此次会议将于2019年12月在加拿大温哥华召开。


1.  Cross Attention Network for Few-shot Classification (Ruibing Hou, Hong Chang, Bingpeng Ma, Shiguang Shan, Xilin Chen)

小样本分类的目标是根据少数标注的样本去识别该类别,其中未知类别(训练类别和测试类别的不一致)和少样本数据是两个关键问题。针对这两个问题,我们提出了一个新的交互注意力网络。首先,我们引进了一个交互注意力模块去处理未知类别的问题。该模块对于每个输入的图像对生成一对注意力图去强调目标物体所在的区域,从而使提取的特征更具有判别性。其次,我们引进了一个新的直推式推理算法去缓解小样本问题。我们提出的直推式算法迭代地利用未标注的数据去扩充标注的数据,从而使提取的类别特征更加鲁邦。在现有的多个数据集上,我们提出的框架都优于当前最好的方法。


2.  Multi-label Co-regularization for Semi-supervised Facial Action Unit Recognition (Xuesong Niu, Hu Han, Shiguang Shan, Xilin Chen)

面部动作单元(AUs)编码了人脸面部的各种基本动作,被广泛应用于表情识别和精神状态分析中,有着重要的应用价值。要训练一个鲁棒的面部动作单元分类器需要大量的数据,然而由于面部动作单元需要专家来进行标注,且标注十分耗时,现有的面部动作单元识别数据集规模都较小。为了解决这一问题,受传统的协同训练框架的启发,我们提出了基于多标签协同正则的半监督面部动作单元识别方法。该方法能够有效利用大量网络图片和少量人工标注图片来训练面部动作单元分类器。针对所有的标注和未标注数据,我们首先使用两个不同的网络来提取多视角的特征,并且利用多视角损失来迫使两个视角所学习到的特征无关。同时,为了约束两个视角预测结果的一致性,我们提出了多标签协同正则损失来约束两个视角的面部动作单元预测概率。此外,我们还通过图卷积网络将不同面部动作单元之间的关系嵌入到分类器之中。通过在少量标注数据和大量的未标注数据上的训练,我们能获得一个有较好的泛化能力的人脸动作单元识别分类器。在多个数据集上的测试都说明了我们算法能够有效利用未标注的数据,大幅度提高了面部动作单元识别的准确性。


3. iSplit LBI: Individualized Partial Ranking with Ties via Split LBI (Qianqian Xu, Xinwei Sun, Zhiyong Yang, Xiaochun Cao, Qingming Huang, Yuan Yao)

传统的成对比较众包标注学习方法假设用户的标注结果可基本达成共识,因而直接以少量用户的标注投票结果作为真实类标进行学习。然而,在现实场景中,用户的个性化偏好往往较为显著,无法从个性化标注中获得共识结果。鉴于以上问题,本文提出一种平局可感知的偏序个性化学习统一框架以突破现有方法性能壁垒。在该框架中,我们将模型参数分解为共识因子和个性化因子,并提出一种基于变量分离的模型更新算法iSplitLBI,可同时实现个性化学习以及异常用户检测。具体而言,iSplitLBI算法随迭代次数演变可生成不同稀疏程度的参数正则化路径并同时更新模型参数和正则化参数。在每次迭代中,iSplitLBI的变量分离机制可将个性化因子分解为异常分量、个性化分量以及噪声分量之和。异常分量提供模型选择的结构信息,其所非零列即对应异常用户;个性化分量提供模型预测的细粒度信息,可更好的完成个性化偏好预测任务。虚拟及真实数据集上进行的大量定性/定量实验表明,我们的方法在偏好预测及异常用户检测方面均具有良好的表现。


视觉信息处理和学习组
  • 单位地址:北京海淀区中关村科学院南路6号
  • 邮编:100190
  • 联系电话:010-62600514
  • Email:yi.cheng@vipl.ict.ac.cn
  • Valse

  • 深度学习大讲堂

版权所有 @ 中科院计算所视觉信息处理与学习组 京ICP备05002829号 京公网安备1101080060