2024 TPAMI

本论文第一作者杜超群是清华大学自动化系 2020 级直博生。导师为黄高副教授。此前于清华大学物理系获理学学士学位。研究兴趣为不同数据分布上的模型泛化和鲁棒性研究,如长尾学习,半监督学习,迁移学习等。在 TPAMI、ICML 等国际一流期刊、会议上发表多篇论文。

个人主页:https://andy-du20.github.io

本文介绍清华大学的一篇关于长尾视觉识别的论文: Probabilistic Contrastive Learning for Long-Tailed Visual Recognition. 该工作已被 TPAMI 2024 录用,代码已开源。

该研究主要关注对比学习在长尾视觉识别任务中的应用,提出了一种新的长尾对比学习方法 ProCo,通过对 contrastive loss 的改进实现了无限数量 contrastive pairs 的对比学习,有效解决了监督对比学习 (supervised contrastive learning)[1] 对 batch (memory bank) size 大小的固有依赖问题 。除了长尾视觉分类任务,该方法还在长尾半监督学习、长尾目标检测和平衡数据集上进行了实验,取得了显著的性能提升。

论文链接: https://arxiv.org/pdf/2403.06726

项目链接: https://github.com/LeapLabTHU/ProCo

研究动机

对比学习在自监督学习中的成功表明了其在学习视觉特征表示方面的有效性。影响对比学习性能的核心因素是 contrastive pairs 的数量 ,这使得模型能够从更多的负样本中学习,体现在两个最具代表性的方法 SimCLR [2] 和 MoCo [3] 中分别为 batch size 和 memory bank 的大小。然而在长尾视觉识别任务中,由于 类别不均衡 ,增加 contrastive pairs 的数量所带来的增益会产生严重的 边际递减效应 ,这是由于大部分的 contrastive pairs 都是由头部类别的样本构成的, 难以覆盖到尾部类别

例如,在长尾 Imagenet 数据集中,若 batch size (memory bank) 大小设为常见的 4096 和 8192,那么每个 batch (memory bank) 中平均分别有个和个类别的样本数量不足一个。

因此,ProCo 方法的核心 idea 是:在长尾数据集上,通过对每类数据的分布进行 建模、参数估计并从中采样 以构建 contrastive pairs,保证能够覆盖到所有的类别。进一步,当采样数量趋于无穷时,可以从理论上严格推导出 contrastive loss 期望的解析解 ,从而直接以此作为优化目标,避免了对 contrastive pairs 的低效采样,实现无限数量 contrastive pairs 的对比学习。

然而,实现以上想法主要有以下几个难点:

如何对每类数据的分布进行建模。

如何高效地估计分布的参数,尤其是对于样本数量较少的尾部类别。

如何保证 contrastive loss 的期望的解析解存在且可计算。

事实上,以上问题可以通过一个统一的概率模型来解决,即选择一个简单有效的概率分布对特征分布进行建模,从而可以利用最大似然估计高效地估计分布的参数,并计算期望 contrastive loss 的解析解。

由于对比学习的特征是分布在单位超球面上的,因此一个可行的方案是选择球面上的 von Mises-Fisher (vMF) 分布作为特征的分布(该分布类似于球面上的正态分布)。vMF 分布参数的最大似然估计有近似解析解且仅依赖于特征的一阶矩统计量,因此可以高效地估计分布的参数,并且严格推导出 contrastive loss 的期望,从而实现无限数量 contrastive pairs 的对比学习。

图 1 ProCo 算法根据不同 batch 的特征来估计样本的分布,通过采样无限数量的样本,可以得到期望 contrastive loss 的解析解,有效地消除了监督对比学习对 batch size (memory bank) 大小的固有依赖。

理论分析

为了进一步从理论上验证 ProCo 方法的有效性,研究者们对其进行了泛化误差界和超额风险界的分析。为了简化分析,这里假设只有两个类别,即 y∈ {-1,+1}.

分析表明,泛化误差界主要由训练样本数量和数据分布的方差控制,这一发现与相关工作的理论分析 [6][7] 一致,保证了 ProCo loss 没有引入额外因素,也没有增大泛化误差界,从理论上保证了该方法的有效性。

此外,该方法依赖于关于特征分布和参数估计的某些假设。为了评估这些参数对模型性能的影响,研究者们还分析了 ProCo loss 的超额风险界,其衡量了使用估计参数的期望风险与贝叶斯最优风险之间的偏差,后者是在真实分布参数下的期望风险。

这表明 ProCo loss 的超额风险主要受参数估计误差的一阶项控制。

实验结果

作为核心 motivation 的验证,研究者们首先与不同对比学习方法在不同 batch size 下的性能进行了比较。Baseline 包括同样基于 SCL 在长尾识别任务上的改进方法 Balanced Contrastive Learning [5](BCL)。具体的实验 setting 遵循 Supervised Contrastive Learning (SCL) 的两阶段训练策略,即首先只用 contrastive loss 进行 representation learning 的训练,然后在 freeze backbone 的情况下训练一个 linear classifier 进行测试。

下图展示了在 CIFAR100-LT (IF100) 数据集上的实验结果,BCL 和 SupCon 的性能明显受限于 batch size,但 ProCo 通过引入每个类别的特征分布,有效消除了 SupCon 对 batch size 的依赖,从而在不同的 batch size 下都取得了最佳性能。

此外,研究者们还在长尾识别任务,长尾半监督学习,长尾目标检测和平衡数据集上进行了实验。这里主要展示了在大规模长尾数据集 Imagenet-LT 和 iNaturalist2018 上的实验结果。首先在 90 epochs 的训练 schedule 下,相比于同类改进对比学习的方法,ProCo 在两个数据集和两个 backbone 上都有至少 1% 的性能提升。

下面的结果进一步表明了 ProCo 也能够从更长的训练 schedule 中受益,在 400 epochs schedule 下,ProCo 在 iNaturalist2018 数据集上取得了 SOTA 的性能,并且还验证了其能够与其它非对比学习方法相结合,包括 distillation (NCL) 等方法。

P. Khosla, et al. “Supervised contrastive learning,” in NeurIPS, 2020.

Chen, Ting, et al. "A simple framework for contrastive learning of visual representations." International conference on machine learning. PMLR, 2020.

He, Kaiming, et al. "Momentum contrast for unsupervised visual representation learning." Proceedings of the IEEE/CVF conference on computer vision and pattern recognition. 2020.

S. Sra, “A short note on parameter approximation for von mises-fisher distributions: and a fast implementation of is (x),” Computational Statistics, 2012.

J. Zhu, et al. “Balanced contrastive learning for long-tailed visual recognition,” in CVPR, 2022.

W. Jitkrittum, et al. “ELM: Embedding and logit margins for long-tail learning,” arXiv preprint, 2022.

A. K. Menon, et al. “Long-tail learning via logit adjustment,” in ICLR, 2021.


周志华周志华,男,毕业于南京大学计算机科学与技术系(学士、硕士、博士),2001年留校任教。 现为南京大学教授,博士生导师;教育部“长江学者”特聘教授,国家杰出青年基金获得者;南京大学计算机科学与技术系主任、人工智能学院院长、计算机软件新技术国家重点实验室常务副主任,机器学习与数据挖掘研究所(LAMDA)所长,校、系学术委员会委员。 中文名:周志华外文名:Zhi-HuaZhou国籍:中国民族:汉族出生日期:1973年11月职业:教师毕业院校:南京大学主要成就:ACMFellowAAAIFellowIEEEFellowAAASFellow欧洲科学院外籍院士代表作品:《机器学习》、《EnsembleMethods》、《EvolutionaryLearning》人物经历周志华,男,1973年11月生。 分别于1996年6月、1998年6月和2000年12月于南京大学计算机科学与技术系获学士、硕士和博士学位。 2001年1月起留校任教,2002年3月被破格聘任为副教授,2003年29岁获国家杰出青年科学基金,随后被聘为教授,2004年4月获博士生导师资格,2006年入选教育部长江学者特聘教授。 2007年创建南京大学机器学习与数据挖掘研究所(LAMDA)。 2012年,当选国际电气电子工程学会会士(IEEEFellow)和国际模式识别学会会士(IAPRFellow);2013年,当选中国计算机学会(CCF)会士;2013年,成为大陆高校首位当选ACM杰出科学家(ACMDistinguishedScientist)的学者;2016年,获PAKDDDistinguishedContributionsAward;2016年,获IEEEICDMOutstandingServiceAward;2016年,当选国际人工智能学会会士(AAAIFellow);2016年11月,当选美国科学促进会会士(AAASFellow);2016年12月,当选美国计算机学会会士(ACMFellow);2017年2月,当选人工智能领域顶级学术会议AAAI2019程序委员会主席,是该会议自1980年成立以来首位华人主席、也是首次由美欧之外国家的学者出任主席;2017年,当选中国人工智能学会(CCF)会士;2017年,当选欧洲科学院外籍院士;2019年,获ACMLDistinguishedContributionsAward;2019年,获。 周志华教授是AAAIFellow,IEEEFellow,IAPRFellow,并于2016年入选ACMFellow和AAASFellow,成为国际上与人工智能相关的重要学会“大满贯”Fellow华人第一人。 此外,周志华教授曾担任国际人工智能大会(AAAI2019)程序委员会主席、IEEE国际数据挖掘大会(ICDM2016)大会主席,并将担任IJCAI2021的程序委员会主席,系中国内地首位任此职位学者。 作为南京大学培养的“本土学者”,周志华在南大完成了从本科、硕士到博士的学习,并于2001年留校任教。 现任南京大学校学术委员会委员、计算机科学与技术系主任、人工智能学院院长、计算机软件新技术国家重点实验室常务副主任、机器学习与数据挖掘研究所(LAMDA)所长。 研究方向主要从事人工智能、机器学习、数据挖掘等领域的研究工作。 主要贡献学术成果主持多项科研课题,出版《机器学习》(2016)、《EnsembleMethods:FoundationsandAlgorithms》(2012)、《EvolutionaryLearning:AdvancesinTheoriesandAlgorithms》(2019),在本领域一流国际期刊和顶级国际会议发表论文两百余篇,被引用四万余次。 现任FrontiersofComputerScience、计算机科学与探索主编,中国科学:信息科学等刊副主编,IEEETPAMI,ACMTKDD等刊的AssociateEditor/编委;亚洲机器学习会议(ACML)发起人及指导委员会主席(2009-2018),亚太人工智能会议(PRICAI)指导委员会副主席,ICDM、PAKDD指导委员会委员,国际人工智能联合会(IJCAI)理事会成员(2019-2024),国际人工智能联合会议(IJCAI2015-2016)顾问委员会委员,如国际人工智能大会(AAAI2019)程序委员会主席、IEEE国际数据挖掘大会(ICDM2016)大会主席、国际人工智能联合大会(IJCAI2015)机器学习程序委员会主席等,即将担任IJCAI2021的程序委员会主席。 担任中国计算机学会常务理事、中国人工智能学会副理事长,江苏省计算机学会理事长,江苏省人工智能学会理事长。 人才培养已培养毕业博士生16名,硕士生20余名,学生获全国优博1次,CCF优博8次、江苏省优博/硕8次、微软学者7次;主讲研究生课程被评为江苏省优秀研究生课程,本科生课程被评为南京大学计算机系本科毕业生“心目中的好课程”;获高校计算机专业优秀教师奖(2018)。 获奖记录报告演讲

  • 声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
  • 本文地址:https://m.srwj168.com.cn/jinrong/332.html
童‘阅 梨园 文学采风活动走进百年戏楼三庆园
配置升级!消息称华为大屏新品标配四扬声器!