DL:深度学习模型优化之模型训练技巧总结之适时自动调整学习率实现代码
目录
-
- def scheduler(epoch):
- 每隔50个epoch,学习率减小为原来的1/10
- if epoch % 50 == 0 and epoch != 0:
- lr = K.get_value(GRU.optimizer.lr)
- if lr>1e-5:
- K.set_value(GRU.optimizer.lr, lr * 0.1)
- print("lr changed to {}".format(lr * 0.1))
- return K.get_value(GRU.optimizer.lr)
-
- reduce_lr = LearningRateScheduler(scheduler)
- early_stopping = EarlyStopping(monitor='loss',
- patience=20,
- min_delta=1e-5,
- mode='auto',
- restore_best_weights=False,是否从具有监测数量的最佳值的时期恢复模型权重
- verbose=2)
网站声明:如果转载,请联系本站管理员。否则一切后果自行承担。
加入交流群
请使用微信扫一扫!