溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

pytorch如何實現多項式回歸

發布時間:2022-03-03 14:52:34 來源:億速云 閱讀:210 作者:小新 欄目:開發技術

這篇文章主要為大家展示了“pytorch如何實現多項式回歸”,內容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領大家一起研究并學習一下“pytorch如何實現多項式回歸”這篇文章吧。

pytorch實現多項式回歸,供大家參考,具體內容如下

一元線性回歸模型雖然能擬合出一條直線,但精度依然欠佳,擬合的直線并不能穿過每個點,對于復雜的擬合任務需要多項式回歸擬合,提高精度。多項式回歸擬合就是將特征的次數提高,線性回歸的次數使一次的,實際我們可以使用二次、三次、四次甚至更高的次數進行擬合。由于模型的復雜度增加會帶來過擬合的風險,因此需要采取正則化損失的方式減少過擬合,提高模型泛化能力。希望大家可以自己動手,通過一些小的訓練掌握pytorch(案例中有些觀察數據格式的代碼,大家可以自己注釋掉)

# 相較于一元線性回歸模型,多項式回歸可以很好的提高擬合精度,但要注意過擬合風險
# 多項式回歸方程 f(x) = -1.13x-2.14x^2+3.12x^3-0.01x^4+0.512
import torch
import matplotlib.pyplot as plt
import numpy as np
# 數據準備(測試數據)
x = torch.linspace(-2,2,50)
print(x.shape)
y = -1.13*x - 2.14*torch.pow(x,2) + 3.15*torch.pow(x,3) - 0.01*torch.pow(x,4) + 0.512
plt.scatter(x.data.numpy(),y.data.numpy())
plt.show()

# 此時輸入維度為4維
# 為了拼接輸入數據,需要編寫輔助數據,輸入標量x,使其變為矩陣,使用torch.cat拼接
def features(x): # 生成矩陣
    # [x,x^2,x^3,x^4]
    x = x.unsqueeze(1)
    print(x.shape)
    return torch.cat([x ** i for i in range(1,5)], 1)
result = features(x)
print(result.shape)
# 目標公式用于計算輸入特征對應的標準輸出
# 目標公式的權重如下
x_weight = torch.Tensor([-1.13,-2.14,3.15,-0.01]).unsqueeze(1)
b = torch.Tensor([0.512])
# 得到x數據對應的標準輸出
def target(x):
    return x.mm(x_weight) + b.item()

# 新建一個隨機生成輸入數據和輸出數據的函數,用于生成訓練數據

def get_batch_data(batch_size):
    # 生成batch_size個隨機的x
    batch_x = torch.randn(batch_size)
    # 對于每個x要生成一個矩陣
    features_x = features(batch_x)
    target_y = target(features_x)
    return features_x,target_y

# 創建模型
class PolynomialRegression(torch.nn.Module):
    def __init__(self):
        super(PolynomialRegression, self).__init__()
        # 輸入四維度 輸出一維度
        self.poly = torch.nn.Linear(4,1)

    def forward(self, x):
        return self.poly(x)

# 開始訓練模型
epochs = 10000
batch_size = 32
model = PolynomialRegression()
criterion = torch.nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(),0.001)

for epoch in range(epochs):
    print("{}/{}".format(epoch+1,epochs))
    batch_x,batch_y = get_batch_data(batch_size)
    out = model(batch_x)
    loss = criterion(out,batch_y)
    optimizer.zero_grad()
    loss.backward()
    # 更新梯度
    optimizer.step()
    if (epoch % 100 == 0):
        print("Epoch:[{}/{}],loss:{:.6f}".format(epoch,epochs,loss.item()))
    if (epoch % 1000 == 0):
        predict = model(features(x))
        print(x.shape)
        print(predict.shape)
        print(predict.squeeze(1).shape)
        plt.plot(x.data.numpy(),predict.squeeze(1).data.numpy(),"r")
        loss = criterion(predict,y)
        plt.title("Loss:{:.4f}".format(loss.item()))
        plt.xlabel("X")
        plt.ylabel("Y")
        plt.scatter(x,y)
        plt.show()

擬合結果:

pytorch如何實現多項式回歸

pytorch如何實現多項式回歸

pytorch如何實現多項式回歸

pytorch如何實現多項式回歸

以上是“pytorch如何實現多項式回歸”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女