一、简介 本文发表于 CVPR 2021,暂时没有开源代码。 本文研究的问题是 FSCIL,即 few-shot incremental learning。与传统的增量学习问题相比,FSCIL 还面
一、简介 本文发表于 CVPR 2021,随文代码见此。(本文是西交数学与统计学院发表的文章,数学方面比较硬核) 本文专注于连续训练时不访问之前的数据。本
一、简介 本文发表于 CVPR 2021,随文代码见此。 本文指出了增量学习过程中 task-level overfitting phenomenon。直观上,这是说模型在训练当前任务的时候,只会专
简介 本文发表于 CVPR 2021,代码见此。 本文聚焦于 rehearsal 策略中样本筛选问题,作者认为,被选择存储在内存中的样本不仅应该代表它们对应的类别,而且应该区
简介 本文发表于CVPR 2021,代码见此。 本文基于 architectural strategy,聚焦于提高效率(Efficient),即压缩网络模型,降低模型参数。文
简介 本文发表于 CVPR 2021,代码见此。 本文从信息论的角度分析了增量学习过程,提出增量学习过程中,模型经验随着模型所看到的数据积累而积累,每个模