在CentOS上,使用PyTorch保存和加載模型的過程與其他操作系統相同。以下是保存和加載PyTorch模型的基本步驟:
首先,確保已經安裝了PyTorch。如果還沒有安裝,可以參考PyTorch官方網站上的安裝指南:https://pytorch.org/get-started/locally/
創建一個簡單的PyTorch模型。例如,我們可以創建一個簡單的多層感知器(MLP):
import torch
import torch.nn as nn
class MLP(nn.Module):
def __init__(self, input_size, hidden_size, output_size):
super(MLP, self).__init__()
self.fc1 = nn.Linear(input_size, hidden_size)
self.relu = nn.ReLU()
self.fc2 = nn.Linear(hidden_size, output_size)
def forward(self, x):
x = self.fc1(x)
x = self.relu(x)
x = self.fc2(x)
return x
input_size = 10
hidden_size = 5
output_size = 2
model = MLP(input_size, hidden_size, output_size)
訓練模型。這里我們省略了訓練過程,假設模型已經訓練完成。
保存模型。使用torch.save()
函數將模型保存到文件中:
torch.save(model.state_dict(), 'model.pth')
這將把模型的權重和偏置保存到名為model.pth
的文件中。
torch.load()
函數從文件中加載模型,并使用model.load_state_dict()
函數將權重和偏置加載到模型中:loaded_model = MLP(input_size, hidden_size, output_size)
loaded_model.load_state_dict(torch.load('model.pth'))
現在,loaded_model
變量包含了從文件中加載的模型,可以像使用原始模型一樣使用它。
注意:在加載模型時,確保模型的結構與保存時的結構相同。否則,可能會出現錯誤。