溫馨提示×

怎么用python爬蟲爬取網頁圖片

小億
112
2024-12-07 07:33:32
欄目: 編程語言

要使用Python爬蟲爬取網頁圖片,您可以使用第三方庫requests和BeautifulSoup。以下是一個簡單的示例,說明如何爬取一個網頁上的所有圖片URL:

  1. 首先,確保您已經安裝了所需的庫。如果尚未安裝,可以使用以下命令安裝:
pip install requests
pip install beautifulsoup4
  1. 然后,創建一個名為web_scraper.py的Python文件,并在其中編寫以下代碼:
import requests
from bs4 import BeautifulSoup

def get_image_urls(url):
    response = requests.get(url)
    soup = BeautifulSoup(response.text, 'html.parser')
    
    image_urls = []
    for img in soup.find_all('img'):
        img_url = img.get('src')
        if img_url:
            image_urls.append(img_url)
    
    return image_urls

def download_images(image_urls, save_directory):
    if not os.path.exists(save_directory):
        os.makedirs(save_directory)
        
    for index, image_url in enumerate(image_urls):
        filename = f'image_{index}.jpg'
        file_path = os.path.join(save_directory, filename)
        
        response = requests.get(image_url)
        with open(file_path, 'wb') as f:
            f.write(response.content)

if __name__ == '__main__':
    url = input('請輸入要爬取的網址:')
    save_directory = input('請輸入保存圖片的目錄:')
    
    image_urls = get_image_urls(url)
    print(f'找到 {len(image_urls)} 個圖片URL。')
    
    download_images(image_urls, save_directory)
    print(f'已將圖片保存到 {save_directory}。')
  1. 運行此腳本,然后按照提示輸入要爬取的網址和保存圖片的目錄。腳本將下載網頁上的所有圖片并將其保存到指定的目錄中。

注意:這個示例可能無法處理一些特殊情況,例如相對URL、懶加載圖片或JavaScript動態加載的圖片。您可能需要根據目標網站的具體情況對代碼進行調整。

0
亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女