溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Pytorch中如何使用finetune

發布時間:2021-06-17 14:28:25 來源:億速云 閱讀:332 作者:小新 欄目:開發技術

這篇文章主要介紹Pytorch中如何使用finetune,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

finetune分為全局finetune和局部finetune。首先介紹一下局部finetune步驟:

1.固定參數

  for name, child in model.named_children():
    for param in child.parameters():
      param.requires_grad = False

后,只傳入 需要反傳的參數,否則會報錯

filter(lambda param: param.requires_grad, model.parameters())

2.調低學習率,加快衰減

finetune是在預訓練模型上進行微調,學習速率不能太大。

目前不清楚:學習速率降低的幅度可以更快一些。這樣以來,在使用step的策略時,stepsize可以更小一些。

直接從原始數據訓練的base_lr一般為0.01,微調要比0.01小,置為0.001

要比直接訓練的小一些,直接訓練的stepsize為100000,finetune的stepsize: 50000

3. 固定bn或取消dropout:

batchnorm會影響訓練的效果,隨著每個batch,追蹤樣本的均值和方差。對于固定的網絡,bn應該使用全局的數值

def freeze_bn(self):
  for layer in self.modules():
    if isinstance(layer, nn.BatchNorm2d):
      layer.eval()

訓練時,model.train()會修改模式,freeze_zn()應該在這里后面

4.過濾參數

訓練時,對于優化器,應該只傳入需要改變的參數,否則會報錯

filter(lambda p: p.requires_grad, model.parameters())

以上是“Pytorch中如何使用finetune”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女