我是靠谱客的博主 英俊宝贝,最近开发中收集的这篇文章主要介绍Pytorch之finetune,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

finetune分为全局finetune和局部finetune。首先介绍一下局部finetune步骤:

1.固定参数

    for name, child in model.named_children():
       for param in child.parameters():
           param.requires_grad = False

后,只传入 需要反传的参数,否则会报错
filter(lambda param: param.requires_grad, model.parameters())

2.调低学习率,加快衰减

finetune是在预训练模型上进行微调,学习速率不能太大。
目前不清楚:学习速率降低的幅度可以更快一些。这样以来,在使用step的策略时,stepsize可以更小一些。
直接从原始数据训练的base_lr一般为0.01,微调要比0.01小,置为0.001
要比直接训练的小一些,直接训练的stepsize为100000,finetune的stepsize: 50000

3. 固定bn或取消dropout:

batchnorm会影响训练的效果,随着每个batch,追踪样本的均值和方差。对于固定的网络,bn应该使用全局的数值

def freeze_bn(self):
    for layer in self.modules():
        if isinstance(layer, nn.BatchNorm2d):
            layer.eval()

训练时,model.train()会修改模式,freeze_zn()应该在这里后面
4.过滤参数
训练时,对于优化器,应该只传入需要改变的参数,否则会报错

filter(lambda p: p.requires_grad, model.parameters())

最后

以上就是英俊宝贝为你收集整理的Pytorch之finetune的全部内容,希望文章能够帮你解决Pytorch之finetune所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(67)

评论列表共有 0 条评论

立即
投稿
返回
顶部