Pytorch 调整学习率:torch.optim.lr_scheduler.CosineAnnealingLR和CosineAnnealingWarmRestarts

  • Post author:
  • Post category:其他


一,torch.optim.lr_scheduler.CosineAnnealingLR

参数说明:

torch.optim.lr_scheduler.CosineAnnealingLR(optimizer,T_max,eta_min=0,last_epoch=-1)

T_max:因为学习率是周期性变化的,该参数表示周期的1/2,也就是说,初始的学习率为a,经过2*T_max时间后,学习率经过了一个周期变化后还是a。

eta_min:表示学习率可变化的最小值,默认为0

T_max设为20,总的epoch为150

在去噪实验中,将T_max的值设定为总的训练epoch,其学习率的变化如下图所示:

T_max取训练的epoch总数

torch.optim.lr_scheduler.CosineAnnealingWarmRestarts(optimizer,T_0,T_mult,eta_min)

T_0:表示学习率第一次周期性变化的epoch数

T_mult:如果设定为1,则是均匀的周期变化;如果设定为大于1,比如2,则学习率的变化周期是:

如下图所示:T_0为10,则表示第一个周期性变化轮次为10

T_mult为2

在这里插入图片描述

测试代码

import torch
from torchvision.models import AlexNet
from torch.optim.lr_scheduler import CosineAnnealingLR
import matplotlib.pyplot as plt

model = AlexNet(num_classes=2)
optimizer = torch.optim.Adam(model.parameters(),lr=1e-4)
#eta_min最小的学习率

scheduler =torch.optim.lr_scheduler.CosineAnnealingLR(optimizer, T_max=150) #torch.optim.lr_scheduler.CosineAnnealingWarmRestarts(optimizer,T_0=10,T_mult=2,eta_min=1e-6)
plt.figure()
x = list(range(150))
y = []
for epoch in range(1,151):
    optimizer.zero_grad()
    optimizer.step()
    print("第%d个epoch的学习率:%f" % (epoch,optimizer.param_groups[0]['lr']))
    scheduler.step()
    y.append(scheduler.get_lr()[0])

# 画出lr的变化    
plt.plot(x, y)
plt.xlabel("epoch")
plt.ylabel("lr")
plt.title("learning rate's curve changes as epoch goes on!")
plt.savefig("learning_rate_150_20.png")



版权声明:本文为weixin_44682222原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。