正则化-多任务学习
摘要:首先简单介绍多任务学习的方法,然后结合【1】给出权重自适应变化代价函数的原理与论文源码进行实现。使用Keras框架,参考论文链接。 目录 多任务学习简介 不确定性加权的多任务学习 主要参考文献 【1】“Multi-Task Learning Using Uncertainty to Weigh Losses for Scene Geometry and Semantics”。 【2】“Deep learning”,花书。 1. 多任务学习简介 多任务学习通过合并几个任务重的样例提高模型的泛化能力,因此可作为一种正则化的手段。 多任务学习的模型通常包括:1. 具体任务独立的参数;2. 所有任务共享的参数。训练过程中两部分参数同时更新。 底层参数通常为共享参数,学习不同任务共有的底层表示。利用相同数据集的不同任务,底层表示可能存在某些统计关系,因此能缓解过拟合,提高泛化能力。 多任务学习常见的代价函数是不同任务的加权和 L ( W ) = ∑ I = 1 n α i L i ( W ) L({\bf{W}})=\sum_{I=1}^n\alpha_iL_i({\bf{W}}) L ( W ) = I = 1 ∑ n α i L i ( W ) 其中 α i \alpha_i α i 是每个任务的权重,通常是手工选择或者用网格搜索的方式确定,属于额外的超参数。 2.