在信息流产品中,仅依赖点击率优化可能引发标题党问题,影响用户体验。因此,需要同时考量用户停留时间、观看时长等指标,以实现多元目标优化。 在样本权重融合方法中,通过调节其他目标对样本的权重,实现对多个目标的优化。这本质上影响了损失函数,进而调整了排序模型在训练时的梯度反馈。YouTube RecSys 2016提出了加权交叉熵损失函数,QQ看点团队使用此方法。 多模型分数融合策略是为每个目标训练一个模型,再将多个模型的预估值融合排序。然而,这一过程在资源和人力方面消耗较大。 排序学习是一种方法,将用户行为等不同目标转换为推荐候选集间的相对顺序,以解决多目标问题。其本质上属于单模型建模,通过多目标转换为样本间的相对顺序进行优化。 多任务学习结合多个任务的共性和差异,通过共享部分参数和各自独立参数,学习多个任务的特征。迁移学习是多目标建模的一种概念,利用已训练模型在新任务中的应用。 在多目标建模中,硬参数共享和软参数共享是常用方法。硬参数共享在深度学习网络中共享特征、特征嵌入以及隐藏层,通过全连接+softmax区分任务,实现多目标排序。软参数共享则允许每个任务有独立参数和模型结构,通过正则化机制调整参数距离,但线上服务时计算量更大。 多目标建模融合了多个任务,通常比单目标模型效果更好。建模过程包括参数共享和任务特有参数,通过门控网络选择不同专家网络的权重,以捕捉任务间的相关性和差异。 MMOE(Multi-gate Mixture-of-Experts)模型通过门控网络自适应选择专家网络的权重,灵活实现参数共享,缓解极化问题,适用于多任务学习。 ESMM(Entire Space Multi-Task Model)全空间多任务模型解决样本选择偏置和数据稀疏性问题,通过损失函数优化模型,实验中使用DNN网络,替换为deepFM或DIN可显著提升效果。 PLE(Progressive Layered Extraction)渐进式分层提取模型结合任务独享专家网络和所有任务共享专家网络,通过定制门控网络避免参数干扰,实现高效信息共享。 ESCM(Entire Space Counterfactual Multi-Task Model)采用反事实损失函数,解决预估有偏和独立先验问题,借助因果推断方法优化模型预测。 在多任务学习优化策略中,可能遇到不同任务Loss量级不一致、收敛速度不均、梯度冲突等问题。解决方法包括调整Loss权重、减缓过早收敛、缓解梯度冲突等。



































