图标不正常怎么办呢(图标出不来怎么回事)
967
2022-05-29
本文介绍多任务学习中目标权重平衡方法GradNorm。
传统多任务目标函数构造的问题:
多任务损失函数定义如下:
相应的,随机梯度下降的权重更新公式如下:
(注释:这里是共享层最后一层的权重,具体和多任务学习的网络构造有关,这里不做具体介绍。)
当某一个任务的梯度占据主导地位,或者任务梯度冲突时,权重更新可能并不是最优的。
改进方法:
本次介绍方法Gradnorm,通过调整不同loss的数量级和学习速度来平衡多个任务的学习情况。
Loss的数量级通过以下公式获得
其中为其中一个loss针对共享层参数求梯度的二范数,用量衡量第i个loss的数量级;相应的代表了所有loss梯度的期望。
学习速度通过以下公式获得
其中为第i个loss在t时刻的loss除以0时刻的loss,衡量第i个任务的反向训练速度,越小表示训练越快;代表了所有任务中,第i个任务的相对训练速度
Gradnorm通过数量级和学习速度两个方面来构造Gradient Loss,具体公式如下:
其中α为超参数,如果某个loss数量级过大或者过小,训练速度过快,则会导致Gradient Loss变大,相应的Gradient Loss会反应在中每个任务的权重项w_i上。具体的,w_i的更新方式为:
参考文献:
[1]. Chen Z, Badrinarayanan V, Lee C Y, et al. Gradnorm: Gradient normalization for adaptive loss balancing in deep multitask networks[C]//International Conference on Machine Learning. PMLR, 2018: 794-803.
机器学习
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。