Pytorch中怎么使用finetune,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。
1.固定參數
for name, child in model.named_children(): for param in child.parameters(): param.requires_grad = False
后,只傳入 需要反傳的參數,否則會報錯
filter(lambda param: param.requires_grad, model.parameters())
2.調低學習率,加快衰減
finetune是在預訓練模型上進行微調,學習速率不能太大。
目前不清楚:學習速率降低的幅度可以更快一些。這樣以來,在使用step的策略時,stepsize可以更小一些。
直接從原始數據訓練的base_lr一般為0.01,微調要比0.01小,置為0.001
要比直接訓練的小一些,直接訓練的stepsize為100000,finetune的stepsize: 50000
3. 固定bn或取消dropout:
batchnorm會影響訓練的效果,隨著每個batch,追蹤樣本的均值和方差。對于固定的網絡,bn應該使用全局的數值
def freeze_bn(self): for layer in self.modules(): if isinstance(layer, nn.BatchNorm2d): layer.eval()
訓練時,model.train()會修改模式,freeze_zn()應該在這里后面
4.過濾參數
訓練時,對于優化器,應該只傳入需要改變的參數,否則會報錯
filter(lambda p: p.requires_grad, model.parameters())
看完上述內容是否對您有幫助呢?如果還想對相關知識有進一步的了解或閱讀更多相關文章,請關注億速云行業資訊頻道,感謝您對億速云的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。