自适应任务抽样元学习是一种通过自适应选择困难任务来提升元学习泛化性能的方法,其核心在于基于类-配对(class-pair)的难度评估构建任务选择分布,并采用贪婪策略降低计算复杂度。以下从背景、方法、优势、实验验证四个方面展开阐述:背景与动机元学习与few-shot分类:元学习旨在通过跨任务知识提取,使模型从少量样本中快速适应新任务。传统方法依赖随机采样生成few-shot任务,但可能忽略类间关系,导致任务信息量不足。例如,将“狗”与“笔记本电脑”分类的任务过于简单,对模型更新影响微弱。自适应采样的必要性:受随机优化中重要性采样启发,自适应任务采样通过调整任务生成分布,优先选择困难任务,以提升泛化能力。这与基于实例的自适应采样不同,任务采样的挑战在于定义任务难度需考虑类间复杂关系。方法核心:基于类-配对的自适应任务采样任务难度评估:每个任务由多个类构成,其难度超越单个类的难度,需通过类间关系(如“狗”与“猫”的区分特征比“狗”与“笔记本电脑”更复杂)定义。提出计算所有类-配对的难度,以此确定任务选择分布,捕获多类别问题中的复杂结构关系。贪婪类-配对采样策略:直接计算K向分类问题的任务选择分布成本为O(|Ctr|^K)(|Ctr|为元训练类数),计算复杂度高。提出基于贪婪类-配对的方法,仅需O(K)时间,且可证明其生成的任务分布与非贪婪版本相同,显著降低计算复杂度。方法优势泛化性能提升:通过选择困难任务,增强模型对未见任务的适应能力,缩小人与机器在few-shot学习上的差距。计算效率优化:贪婪策略在保证分布一致性的前提下,将任务分配计算复杂度从指数级降至线性级,适用于大规模数据集。算法兼容性:可应用于任何基于情景训练的元学习算法(如基于优化或度量的方法),并与不同特征主干(如ResNet、ConvNet)兼容。实验验证与结果实验设置:在miniImageNet和CIFAR-FS两个few-shot分类基准数据集上评估方法。集成自适应任务采样与多种元学习算法(如MAML、Prototypical Networks),对比不同特征主干的表现。对比采样策略:调查基于类的方法、简单类-对方法、不确定类-对方法,结果表明基于硬类-对的采样(即选择困难任务)始终更准确。性能提升:自适应任务采样方法在不同数据集、元学习算法和特征主干上均实现一致改进,证明其优越性与鲁棒性。理论支持泛化性分析:通过理论证明自适应任务采样方法在元训练阶段更新任务生成分布的合理性,为方法正确性提供依据。与现有工作对比:区别于启发式采样(如存储失败类别构造困难任务)或预定义类结构信息的方法,自适应任务采样通过动态调整分布提升泛化能力,更贴近实际场景。相比基于实例的采样,任务级采样需处理类间关系,挑战更大,但实验表明硬采样效果更优。



































