本篇文章為大家展示了tensorflow實現讀取網絡weight和bias的方法,代碼簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細介紹希望你能有所收獲。
(1) 獲取參數的變量名??梢允褂靡幌潞瘮但@取變量名:
def vars_generate1(self,scope_name_var): return [var for var in tf.global_variables() if scope_name_var in var.name ]
輸入你想要讀取的變量的一部分的名稱(scope_name_var),然后通過這個函數返回一個List,里面是所有含有這個名稱的變量。
(2) 利用session讀取變量的值:
def get_weight(self): full_connect_variable = self.vars_generate1("pred_network/full_connect/l5_conv") with tf.Session() as sess: sess.run(tf.global_variables_initializer()) ##一定要先初始化變量 print(sess.run(full_connect_variable[0]))
之后如果想要看參數隨著訓練的變化,你可以將這些參數保存到一個txt文件里面查看。
補充知識:如何在 PyTorch 中設定學習率衰減(learning rate decay)
很多時候我們要對學習率(learning rate)進行衰減,下面的代碼示范了如何每30個epoch按10%的速率衰減:
def adjust_learning_rate(optimizer, epoch): """Sets the learning rate to the initial LR decayed by 10 every 30 epochs""" lr = args.lr * (0.1 ** (epoch // 30)) for param_group in optimizer.param_groups: param_group['lr'] = lr
什么是param_groups?
optimizer通過param_group來管理參數組.param_group中保存了參數組及其對應的學習率,動量等等.所以我們可以通過更改param_group[‘lr']的值來更改對應參數組的學習率。
# 有兩個`param_group`即,len(optim.param_groups)==2 optim.SGD([ {'params': model.base.parameters()}, {'params': model.classifier.parameters(), 'lr': 1e-3} ], lr=1e-2, momentum=0.9) #一個參數組 optim.SGD(model.parameters(), lr=1e-2, momentum=.9)
上述內容就是tensorflow實現讀取網絡weight和bias的方法,你們學到知識或技能了嗎?如果還想學到更多技能或者豐富自己的知識儲備,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。