溫馨提示×

PyTorch中怎么實現模型并行

小億
172
2024-05-10 15:42:54
欄目: 深度學習

在PyTorch中,可以通過使用torch.nn.DataParallel來實現模型的并行。

首先,定義模型并將其放入DataParallel中,示例如下:

import torch
import torch.nn as nn

class MyModel(nn.Module):
    def __init__(self):
        super(MyModel, self).__init__()
        self.fc1 = nn.Linear(1000, 500)
        self.fc2 = nn.Linear(500, 10)
    
    def forward(self, x):
        x = self.fc1(x)
        x = self.fc2(x)
        return x

model = MyModel()
model = nn.DataParallel(model)

然后,將數據和模型傳入GPU并進行訓練,示例如下:

device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model.to(device)

# 定義損失函數和優化器
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr=0.001)

# 加載數據
data_loader = DataLoader(dataset, batch_size=64, shuffle=True)

# 訓練模型
for inputs, labels in data_loader:
    inputs, labels = inputs.to(device), labels.to(device)
    optimizer.zero_grad()
    
    outputs = model(inputs)
    loss = criterion(outputs, labels)
    loss.backward()
    optimizer.step()

通過上述方法,可以實現模型的并行訓練,提高訓練速度和效率。

0
亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女