中科院计算所视觉信息处理与学习组
中科院计算所视觉信息处理与学习组


您所在的位置 / 新闻动态

新闻动态

实验室2篇论文被AAAI2020录用

发表日期:2019-11-26      点击击数: 140

实验室今年有2篇论文被AAAI 2020接收,AAAI的全称是AAAI Conference on Artificial Intelligence,是CCF-A类国际会议,也是人工智能两大国际会议(另外一个是IJCAI)之一。此次会议将于2020年2月在美国纽约召开。


1. Who Likes What? – SplitLBI in Exploring Preferential Diversity of Rating(Qianqian Xu, Jiechao Xiong, Zhiyong Yang, Xiaochun Cao, Qingming Huang, Yuan Yao)

近年来,用户个性化预测已成为数据挖掘领域的热门任务。现有方法虽已取得显著的性能突破,但大多数工作往往忽略了潜在用户人群个性化程度的多尺度性。鉴于此,本文提出一种囊括共识模式到个性化模式的多尺度偏好学习方法。通过将模型多尺度性化,即可捕获大众主流趋势,亦可预测细粒度的用户个性化行为。具体而言,本文同时利用物品的副信息及用户组的个性化函数刻画复杂的用户-物品关系。更进一步的,本文采用分离线性化Bregman迭代算法(SplitLinearized Bregman Iteration, SplitLBI)中的正则化路径构造多尺度个性化偏好模型。在生成Split LBI正则化路径过程中,不同用户的参数依照其个性化程度由弱到强依次逃离零点。在此基础上,通过early stopping机制选择最优的停止时间,该时刻的模型即可兼顾模型性能及模型的多样性。仿真及真实数据集上进行的大量定性/定量实验表明,我们的方法在偏好预测及多尺度偏好方面均具有良好的表现。

2.  F3Net: Fusion, Feedback and Focus for Salient Object Detection(Jun Wei, Shuhui Wang, Qingming Huang)

近期,许多显著性检测模型都是基于多尺度特征融合的,通过融合不同卷积层的特征,这些模型可以输出准确的显著图。然而由于不同卷积层具有不同感受野,来自这些卷积层的特征存在着较大的差异性,常见的特征融合策略(相加,拼接)忽略了这些差异性并可能导致模型性能受限。在本文中,我们提出了F3Net来解决上述问题, 它主要包含交叉特征融合(CFM),级联的反馈解码器(CFD)以及像素位置敏感损失(PPA)。具体来说,交叉特征融合的目标是有选择地聚合多层特性。不同于相加或者拼接, 交叉特征融合自适应地在融合前从输入特征中选择互补成分,有效地避免了引入过多的冗余信息而破坏原有特征。另外,级联的反馈解码器采用了多级反馈机制,将靠近监督信号的特征引入到前层的特征中进行补充矫正以及消除特征间的差异。在生成最终的显著图之前,这些细化的特性要经过多次类似的迭代。不同于二值交叉熵,像素位置敏感损失并不会平等对待每一个像素,它可以综合单一像素周围的结构特征,以指导网络关注局部细节。来自边界或易出错部分的困难像素将会得到更多的关注,以强调其重要性。F3Net能够准确地分割出显著性目标并提供清晰的局部细节。它在5个基准数据集以及4个评价指标上都取得了目前最好的性能。




视觉信息处理和学习组
  • 单位地址:北京海淀区中关村科学院南路6号
  • 邮编:100190
  • 联系电话:010-62600514
  • Email:yi.cheng@vipl.ict.ac.cn
  • Valse

  • 深度学习大讲堂

版权所有 @ 中科院计算所视觉信息处理与学习组 京ICP备05002829号 京公网安备1101080060