這篇文章主要介紹了pytorch動態神經網絡的實現方法,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。
(1)首先要建立數據集
import torch #引用torch模塊 import matplotlib.pyplot as plt #引用畫圖模塊 x=torch.unsqueeze(torch.linspace(-1,1,100),dim=1)#產生(-1,1)的100個點橫坐標,dim表示維度,表示在這里增加第二維 y=x.pow(2)+0.2*torch.rand(x,size()) #0.2*torch.rand(x,size())是為了產生噪點使數據更加真實
(2)建立神經網絡
import torch imoort torch.nn.functional as F #激勵函數在這個模塊里 class Net (torch.nn.Module): #Net要繼承torch中Module (1)首先有定義(建立)神經網絡層 def __init__(self,n_feature,n_hidden,n_output): #__init__表示初始化數據 super(Net,self).__init__()#Net的對象self轉換為類nn.module的對象,然后在用nn.Module的方法使用__init__初始化。 self.hidden=torch.nn.Linear(n_feature,n_hidden) #建立隱藏層線性輸出 self.predict=torch.nn.Linear(n_hidden,n_output) #建立輸出層線性輸出
(2)建立層與層之間的關系
def forward (self,x): # 這同時也是 Module 中的 forward 功能 x=F.relu(self,hidden(x)) #使用激勵函數把數據激活 return x #輸出數據 net=Net(n_feature=1,n_hidden=10,n_output=1) #一個隱藏層有10節點,輸出層有1節點,輸出數數據為一個
(3)訓練網絡
optimizer=torch.optim.SGD(net.parameter().lr=0.2)#傳入 net 的所有參數, lr代表學習率,optimizer是訓練工具 loss_func=torch.nn.MSELoss()#預測值和真實值的誤差計算公式 (均方差) for t in range(100): prediction = net(x) # 喂給 net 訓練數據 x, 輸出預測值 loss = loss_func(prediction, y) # 計算兩者的誤差 optimizer.zero_grad() # 清空上一步的殘余更新參數值 loss.backward() # 誤差反向傳播, 計算參數更新值 optimizer.step() # 將參數更新值施加到 net 的 parameters 上
(四)可視化訓練
import matplotlib.pyplot as plt plt.ion() # 畫圖 plt.show() for t in range(200): ... loss.backward() optimizer.step() # 接著上面來 if t % 5 == 0: # plot and show learning process plt.cla() plt.scatter(x.data.numpy(), y.data.numpy()) plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5) plt.text(0.5, 0, 'Loss=%.4f' % loss.data.numpy(), fontdict={'size': 20, 'color': 'red'}) plt.pause(0.1)
會得到如下圖像:
整體代碼如下:
import torch import matplotlib.pyplot as plt x=torch.unsqueeze(torch.linspace(-2,2,100),dim=1) y=x.pow(2)+0.2*torch.rand(x.size()) import torch import torch.nn.functional as F class Net(torch.nn.Module): def __init__(self,n_feature,n_hidden,n_output): super(Net,self).__init__() self.hidden=torch.nn.Linear(n_feature,n_hidden) self.predict=torch.nn.Linear(n_hidden,n_output) def forward(self,x): x=F.relu(self.hidden(x)) x=self.predict(x) return x net=Net(n_feature=1,n_hidden=10,n_output=1) optimizer=torch.optim.SGD(net.parameters(),lr=0.3) loss_func=torch.nn.MSELoss() plt.ion() plt.show() for t in range(100): prediction=net(x) loss=loss_func(prediction,y) optimizer.zero_grad() loss.backward() optimizer.step() if t % 5 == 0: plt.cla() plt.scatter(x.data.numpy(), y.data.numpy()) plt.plot(x.data.numpy(), prediction.data.numpy(), 'r-', lw=5) plt.text(0.5, 0, 'Loss=%.4f' % loss.data.numpy(), fontdict={'size': 20, 'color': 'red'}) plt.pause(0.1)
感謝你能夠認真閱讀完這篇文章,希望小編分享的“pytorch動態神經網絡的實現方法”這篇文章對大家有幫助,同時也希望大家多多支持億速云,關注億速云行業資訊頻道,更多相關知識等著你來學習!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。