這篇文章給大家分享的是有關Pytorch如何獲取無梯度Tensor中的值的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。
使用兩個網絡并行運算,一個網絡的輸出值要給另一個網絡反饋。而反饋的輸出值帶有網絡權重的梯度,即grad_fn=<XXXBackward0>.
這時候如果把反饋值扔到第二網絡中更新,會出現第一個計算圖丟失無法更新的錯誤。哎喲喂,我根本不需要第一個網絡的梯度好嗎?
一開始用了一個笨辦法,先轉numpy,然后再轉回torch.Tensor。因為numpy數據是不帶梯度的。
但是我的原始tensor的放在cuda上的,
t_error = td_error.cuda().data.cpu().numpy()
t_error = torch.FloatTensor(t_error).to(device)
從cuda轉回了cpu,變成numpy,又轉成了tensor,又回到了cuda上,坑爹呢這是,可能只有我才能寫出如此低效的辣雞代碼了。
后來發現,其實直接在返回的時候添加
with torch.no_grad():
td_error = reward + GAMMA * v_ - v
即可.
補充:在pytorch中取一個tensor的均值,然后該張量中的所有值與其對比!
Pytorch中的Tensor的shape是(B, C, W, H),
C, H, W = tensor.shape[1], tensor.shape[2], tensor.shape[3]
for c in range(C):
mean = torch.mean(x[0][c])
for h in range(H):
for w in range(W):
if x[0][c][h][w] >= mean:
x[0][c][h][w] = mean
感謝各位的閱讀!關于“Pytorch如何獲取無梯度Tensor中的值”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。