溫馨提示×

PyTorch在Ubuntu上如何進行模型訓練

小樊
50
2025-05-26 08:14:44
欄目: 智能運維

在Ubuntu上使用PyTorch進行模型訓練,可以按照以下步驟進行:

安裝PyTorch

  1. 選擇合適的安裝命令: 根據你的CUDA版本(如果你有NVIDIA GPU),選擇相應的PyTorch安裝命令??梢栽赑yTorch官網找到最新的安裝命令。

    # 例如,對于CUDA 11.7
    pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
    
  2. 驗證安裝: 打開Python解釋器并嘗試導入PyTorch來驗證安裝是否成功。

    import torch
    print(torch.__version__)
    print(torch.cuda.is_available())  # 如果有GPU,應該返回True
    

準備數據集

  1. 下載數據集: 可以使用PyTorch內置的數據集,或者從其他來源下載。

    from torchvision import datasets, transforms
    
    # 定義數據轉換
    transform = transforms.Compose([
        transforms.ToTensor(),
        transforms.Normalize((0.5,), (0.5,))
    ])
    
    # 下載訓練數據集
    train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
    
  2. 創建數據加載器: 使用DataLoader來批量加載數據。

    from torch.utils.data import DataLoader
    
    train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)
    

定義模型

  1. 使用PyTorch的nn模塊定義模型

    import torch.nn as nn
    import torch.nn.functional as F
    
    class Net(nn.Module):
        def __init__(self):
            super(Net, self).__init__()
            self.conv1 = nn.Conv2d(1, 10, kernel_size=5)
            self.conv2 = nn.Conv2d(10, 20, kernel_size=5)
            self.conv2_drop = nn.Dropout2d()
            self.fc1 = nn.Linear(320, 50)
            self.fc2 = nn.Linear(50, 10)
    
        def forward(self, x):
            x = F.relu(F.max_pool2d(self.conv1(x), 2))
            x = F.relu(F.max_pool2d(self.conv2_drop(self.conv2(x)), 2))
            x = x.view(-1, 320)
            x = F.relu(self.fc1(x))
            x = F.dropout(x, training=self.training)
            x = self.fc2(x)
            return F.log_softmax(x, dim=1)
    

訓練模型

  1. 初始化模型、損失函數和優化器

    model = Net()
    optimizer = torch.optim.SGD(model.parameters(), lr=0.01, momentum=0.5)
    criterion = nn.CrossEntropyLoss()
    
  2. 編寫訓練循環

    for epoch in range(10):  # 多次循環遍歷數據集
        running_loss = 0
        for i, data in enumerate(train_loader, 0):
            # 獲取輸入數據
            inputs, labels = data
    
            # 梯度清零
            optimizer.zero_grad()
    
            # 前向傳播 + 反向傳播 + 優化
            outputs = model(inputs)
            loss = criterion(outputs, labels)
            loss.backward()
            optimizer.step()
    
            # 打印統計信息
            running_loss += loss.item()
            if i % 100 == 99:    # 每100個mini-batches打印一次
                print('[%d, %5d] loss: %.3f' %
                      (epoch + 1, i + 1, running_loss / 100))
                running_loss = 0.0
    
    print('Finished Training')
    

保存和加載模型

  1. 保存模型

    PATH = './cifar_net.pth'
    torch.save(model.state_dict(), PATH)
    
  2. 加載模型

    model = Net()
    model.load_state_dict(torch.load(PATH))
    

注意事項

  • 確保你的系統已經安裝了CUDA和cuDNN,如果你打算使用GPU進行訓練。
  • 根據你的具體需求調整模型結構、損失函數和優化器。
  • 監控訓練過程中的損失和準確率,以便及時調整超參數。

以上步驟提供了一個基本的框架,你可以根據自己的項目需求進行調整和擴展。

0
亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女