Python中的AJAX爬蟲主要依賴于requests和BeautifulSoup庫。requests用于發送HTTP請求并獲取網頁內容,BeautifulSoup則用于解析HTML文檔并提取所需信息。以下是一個簡單的AJAX爬蟲示例:
pip install requests beautifulsoup4
import requests
from bs4 import BeautifulSoup
# 目標URL
url = 'https://example.com'
# 發送HTTP請求并獲取響應內容
response = requests.get(url)
# 檢查請求是否成功
if response.status_code == 200:
# 解析HTML內容
soup = BeautifulSoup(response.text, 'html.parser')
# 提取所需信息,例如:提取所有的段落標簽<p>
paragraphs = soup.find_all('p')
# 遍歷并打印所有段落標簽的內容
for p in paragraphs:
print(p.get_text())
else:
print(f"請求失敗,狀態碼:{response.status_code}")
這個示例展示了如何使用requests庫發送HTTP請求并獲取HTML內容,然后使用BeautifulSoup庫解析HTML并提取所有段落標簽的內容。你可以根據實際需求修改這個示例,以提取其他HTML元素或處理更復雜的頁面結構。
需要注意的是,AJAX爬蟲可能會遇到一些挑戰,例如:動態加載的內容、反爬蟲機制等。在這種情況下,你可能需要使用更高級的庫(如Selenium或Scrapy)或者采用其他方法(如設置請求頭、使用代理IP等)來解決問題。