写点什么

图解 OneFlow 的学习率调整策略

作者:OneFlow
  • 2022 年 6 月 23 日
  • 本文字数:4860 字

    阅读完需:约 16 分钟

图解OneFlow的学习率调整策略

撰文|李佳


1、背景


学习率调整策略(learning rate scheduler),其实单独拎出每一个来看都不难,但是由于方法较多,上来就看文档容易一头雾水, 以 OneFlow v0.7.0 为例,oneflow.optim.lr_scheduler 模块中就包含了 14 种策略。


有没有一种更好的方法来学习呢?比如可视化出学习率的变化过程,此时,我脑海中突然浮现出 Convolution Arithmetic 这个经典项目,作者将各种 CNN 卷积操作以 gif 形式展示,一目了然。



所以,就有了这篇文章,将学习率调整策略可视化出来,下面是两个例子(ConstantLR 和 LinearLR):




我将可视化代码分别托管在 Hugging Face Spaces 和 Streamlit Cloud,大家可以任选一个链接访问,然后自由调节参数,感受学习率的变化过程。


  • https://huggingface.co/spaces/basicv8vc/learning-rate-scheduler-online

  • https://share.streamlit.io/basicv8vc/scheduler-online

2、学习率调整策略


学习率可以说是训练神经网络过程中最重要的参数(之一),目前大家都已接受用动态学习率调整策略来代替固定学习率,各种学习率调整策略层出不穷,下面我们就以OneFlow v0.7.0为例,学习下常用的几种策略。

基类 LRScheduler

LRScheduler(optimizer: Optimizer, last_step: int = -1, verbose: bool = False)是所有学习率调度器的基类,初始化参数中 last_step 和 verbose 一般不需要设置,前者主要和 checkpoint 相关,后者则是在每次 step() 调用时打印学习率,可以用于 debug。LRScheduler 中最重要的方法是 step(),这个方法的作用就是修改用户设置的初始学习率,然后应用到下一次的 Optimizer.step()。


有些资料会讲 LRScheduler 根据 epoch 或 iteration/step 来调整学习率,两种说法都没问题,实际上,LRScheduler 并不知道当前训练到第几个 epoch 或第几个 iteration/step,只记录了调用 step()的次数(last_step),如果每个 epoch 调用一次,那就是根据 epoch 来调整学习率,如果每个 mini-batch 调用一次,那就是根据 iteration 来调整学习率。以训练 Transformer 模型为例,需要在每个 iteration 调用 step()。


简单来说,LRScheduler 根据调整策略本身、当前调用 step()的次数(last_step)和用户设置的初始学习率来得到下一次梯度更新时的学习率。


ConstantLR

oneflow.optim.lr_scheduler.ConstantLR(    optimizer: Optimizer,    factor: float = 1.0 / 3,    total_iters: int = 5,    last_step: int = -1,    verbose: bool = False,)
复制代码


ConstantLR 和固定学习率差不多,唯一的区别是在前 total_iters,学习率为初始学习率 * factor。


注意:由于 factor 取值[0, 1],所以这是一个学习率递增的策略。



ConstantLR


LinearLR


oneflow.optim.lr_scheduler.LinearLR(    optimizer: Optimizer,    start_factor: float = 1.0 / 3,    end_factor: float = 1.0,    total_iters: int = 5,    last_step: int = -1,    verbose: bool = False,)
复制代码

LinearLR 和固定学习率也差不多,唯一的区别是在前 total_iters,学习率先线性增加或递减,然后再固定为初始学习率 * end_factor。

注意:学习率在前 total_iters 是递增 or 递减由 start_factor 和 end_factor 大小决定。


LinearLR

ExponentialLR


oneflow.optim.lr_scheduler.ExponentialLR(    optimizer: Optimizer,    gamma: float,    last_step: int = -1,    verbose: bool = False,)
复制代码

学习率呈指数衰减,当然也可以将 gamma 设置为>1,进行指数增加,不过估计没人愿意这么做。



ExponentialLR

StepLR


oneflow.optim.lr_scheduler.StepLR(    optimizer: Optimizer,    step_size: int,    gamma: float = 0.1,    last_step: int = -1,    verbose: bool = False,)
复制代码

StepLR 和 ExponentialLR 差不多,区别是不是每一次调用 step()都进行学习率调整,而是每隔 step_size 才调整一次。



StepLR

MultiStepLR


oneflow.optim.lr_scheduler.MultiStepLR(    optimizer: Optimizer,    milestones: list,    gamma: float = 0.1,    last_step: int = -1,    verbose: bool = False,)
复制代码

StepLR 每隔 step_size 就调整一次学习率,而 MultiStepLR 则根据用户指定的 milestones 进行调整,假设 milestones 是[2, 5, 9],在[0, 2)是 lr,在[2, 5)是 lr * gamma,在[5, 9)是 lr * (gamma **2),在[9, )是 lr * (gamma **3)。



MultiStepLR

PolynomialLR


oneflow.optim.lr_scheduler.PolynomialLR(    optimizer,    steps: int,    end_learning_rate: float = 0.0001,    power: float = 1.0,    cycle: bool = False,    last_step: int = -1,    verbose: bool = False,)
复制代码


前面的学习率调整策略无非是线性或指数,PolynomialLR 则根据多项式进行调整,先看 cycle 参数,默认是 False,此时先根据多项式衰减然后再固定学习率,公式如下:



注:公式中的 decay_batch 就是 steps,current_batch 就是最新的 last_step。


如果 cycle 是 True,则稍微复杂点,类似于以 steps 为周期进行变化,每次从一个最大学习率衰减到 end_learning_rate,每个周期的最大学习率也是逐渐衰减的,公式如下:




PolynomialLR


看下 cycle=True 的例子,


CosineDecayLR


oneflow.optim.lr_scheduler.CosineDecayLR(    optimizer: Optimizer,    decay_steps: int,    alpha: float = 0.0,    last_step: int = -1,    verbose: bool = False,)
复制代码

在前 decay_steps 步,学习率由 lr 余弦衰减到 lr * alpha,然后固定为 lr*alpha。


注:CosineDecayLR 是为了对齐 TensorFlow 中的 CosineDecay。



CosineAnnealingLR


oneflow.optim.lr_scheduler.CosineAnnealingLR(    optimizer: Optimizer,    T_max: int,    eta_min: float = 0.0,    last_step: int = -1,    verbose: bool = False,)
复制代码

CosineAnnealingLR 和 CosineDecayLR 很像,区别在于前者不仅包含余弦衰减的过程,也可以包含余弦增加,在前 T_max 步,学习率由 lr 余弦衰减到 eta_min, 如果 cur_step > T_max,然后再余弦增加到 lr,不断重复这个过程。

CosineAnnealingLR

CosineAnnealingWarmRestarts


oneflow.optim.lr_scheduler.CosineAnnealingWarmRestarts(    optimizer: Optimizer,    T_0: int,    T_mult: int = 1,    eta_min: float = 0.0,    decay_rate: float = 1.0,    restart_limit: int = 0,    last_step: int = -1,    verbose: bool = False,)
复制代码

上面三个 Cosine 相关的 LRScheduler 来自同一篇论文(SGDR: Stochastic Gradient Descent with Warm Restarts),这个参数比较多,首先看 T_mul,如果 T_mul=1,则学习率等周期变化,周期大小就是 T_0,也就是由最大学习率衰减到最小学习率的步数(steps),注意如果 decay_rate<1,则每个周期的最大学习率和最小学习率都在衰减,第一个周期由 lr 开始衰减,第二个周期由 lr * decay_rate 开始衰减,第三个周期由 lr * (decay_rate ** 2)开始衰减。


如果 T_mult>1,则学习率不是等周期变化,每个周期的大小是上一个周期大小 T_mult,第一个周期是 T_0,第二个周期是 T_0 * T_mult,第三个周期是 T_0 * T_mult * T_mult。


再来看 restart_limit,默认值是 0,就是上面的过程,如果>0,物理含义是周期数量,假设为 3,则只有三次从最大衰减到最小,然后学习率一直是 eta_min,不再周期变化了。


先看个 T_mult=1 的例子,此时 decay_rate=1,

T_mult=1, decay_rate=1


再看个 T_mult=1,decay_rate=0.5 的例子,注意这种组合形式并不常用。

T_mult=1, decay_rate=0.5


再来看 T_mult >1 的例子,

最后,再看个 restart_limit != 0 的例子,


3、组合调度策略


上面讲的都是单个学习率调度策略,再来看几个学习率组合调度策略,比如训练 Transformer 常用的 Noam scheduler 就需要先线性增加再指数衰减,可以通过 LinearLR 和 ExponentialLR 组合得到。也可以直接使用 LambdaLR 传入学习率变化函数。

LambdaLR

oneflow.optim.lr_scheduler.LambdaLR(optimizer, lr_lambda, last_step=-1, verbose=False)
复制代码

LambdaLR 可以说是最灵活的策略了,因为具体的方法是根据函数 lr_lambda 来指定的。比如实现 Transformer 中的 Noam Scheduler:


def rate(step, model_size, factor, warmup):    """    we have to default the step to 1 for LambdaLR function    to avoid zero raising to negative power.    """    if step == 0:        step = 1    return factor * (        model_size ** (-0.5) * min(step ** (-0.5), step * warmup ** (-1.5))    )

model = CustomTransformer(...)optimizer = flow.optim.Adam( model.parameters(), lr=1.0, betas=(0.9, 0.98), eps=1e-9)lr_scheduler = LambdaLR( optimizer=optimizer, lr_lambda=lambda step: rate(step, d_model, factor=1, warmup=3000),)
复制代码

注意:OneFlow 的 Graph 模式并不支持 LambdaLR。

SequentialLR


oneflow.optim.lr_scheduler.SequentialLR(    optimizer: Optimizer,    schedulers: Sequence[LRScheduler],    milestones: Sequence[int],    interval_rescaling: Union[Sequence[bool], bool] = False,    last_step: int = -1,    verbose: bool = False,)
复制代码


支持传入多个 LRScheduler,每个 LRScheduler 的作用范围(step range)由 milestones 指定,主要看下 interval_rescaling 这个参数,默认是 False,目的是让相邻的两个 scheduler 在衔接时学习率比较平滑,比如 milestones=[5],当 last_step=5 时,第二个 schduler 就从 last_step=5 开始计算新的学习率,这样和 last_step=4(前一个 scheduler 计算学习率)得到的学习率不会有过大差异,而 interval_rescaling=True 时,则这个 scheduler 的 last_step 从 0 开始。

WarmupLR


oneflow.optim.lr_scheduler.WarmupLR(    scheduler_or_optimizer: Union[LRScheduler, Optimizer],    warmup_factor: float = 1.0 / 3,    warmup_iters: int = 5,    warmup_method: str = "linear",    warmup_prefix: bool = False,    last_step=-1,    verbose=False,)
复制代码


WarmupLR 是 SequentialLR 的子类,包含两个 LRScheduler,并且第一个要么是 ConstantLR,要么是 LinearLR。

ChainedScheduler


oneflow.optim.lr_scheduler.ChainedScheduler(schedulers)
复制代码


前面讲的组合形式的调度策略,在每一个 step,只有一个 LRScheduler 发挥作用,而 ChainedScheduler,在每一个 step 计算学习率时,所有的 LRScheduler 都参与,类似于管道(pipeline)


lr ==> LRScheduler_1 ==> LRScheduler_2 ==> ... ==> LRScheduler_N
复制代码


ReduceLROnPlateau


oneflow.optim.lr_scheduler.ReduceLROnPlateau(    optimizer,    mode="min",    factor=0.1,    patience=10,    threshold=1e-4,    threshold_mode="rel",    cooldown=0,    min_lr=0,    eps=1e-8,    verbose=False,)
复制代码

前面提到的所有 LRScheduler 都是根据当前的 step 来计算学习率,而在模型训练过程中,我们最关心的是训练集和验证集上面的指标,能不能利用这些指标来指导学习率变化呢?这时候可以用 ReduceLROnPlateau,如果某项指标多个 step 都未发生显著变化,则学习率进行线性衰减。


optimizer = flow.optim.SGD(model.parameters(), lr=0.1, momentum=0.9)scheduler = flow.optim.lr_scheduler.ReduceLROnPlateau(optimizer, 'min')for epoch in range(10):    train(...)    val_loss = validate(...)    # 注意,该步骤应在validate()之后调用。    scheduler.step(val_loss)
复制代码


4、实践


如果看到这里有点意犹未尽的感觉,不如动手实践一下,下面是我根据官方的图片分类实例改写的 CIFAR-100 例子,可以设置不同的学习率调度策略来感受下差异


  • https://github.com/basicv8vc/oneflow-cifar100-lr-scheduler


(本文经授权后发布,原文:https://zhuanlan.zhihu.com/p/520719314 )


其他人都在看


欢迎下载体验 OneFlow v0.7.0 最新版本:https://github.com/Oneflow-Inc/oneflow/

发布于: 刚刚阅读数: 3
用户头像

OneFlow

关注

不至于成为世界上最快的深度学习框架。 2022.03.23 加入

★ OneFlow深度学习框架:github.com/Oneflow-Inc/oneflow ★ OF云平台:oneflow.cloud

评论

发布
暂无评论
图解OneFlow的学习率调整策略_前沿技术_OneFlow_InfoQ写作社区