# Python如何爬取美團網站店鋪信息
網絡爬蟲是獲取互聯網公開數據的有效工具,本文將以美團為例,介紹如何使用Python爬取店鋪基礎信息(需遵守法律法規和網站Robots協議)。
---
## 一、準備工作
### 1. 技術棧選擇
- **Requests/httpx**:發送HTTP請求
- **BeautifulSoup/lxml**:解析HTML
- **Selenium**(可選):處理動態渲染頁面
- **Pandas**:數據存儲
### 2. 環境安裝
```bash
pip install requests beautifulsoup4 pandas
# 如需動態渲染
pip install selenium webdriver-manager
import requests
from bs4 import BeautifulSoup
def get_shops(city_id=1, category=101):
url = "https://apimobile.meituan.com/group/v4/poi/pcsearch"
params = {
"uuid": "生成唯一標識",
"userid": -1,
"limit": 20,
"offset": 0,
"cateId": category,
"q": "",
"token": ""
}
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64)..."
}
response = requests.get(url, params=params, headers=headers)
return response.json()["data"]["searchResult"]
soup = BeautifulSoup(html_text, 'lxml')
shops = []
for item in soup.select('.shop-list li'):
name = item.select_one('.shop-name').text
address = item.select('.address').text
shops.append({'name':name, 'address':address})
for shop in api_data:
print(f"""
店鋪ID:{shop['id']}
名稱:{shop['title']}
評分:{shop['avgscore']}
人均:{shop['avgprice']}
地址:{shop['address']}
""")
import pandas as pd
df = pd.DataFrame(shops_list)
df.to_excel('meituan_shops.xlsx', index=False)
# 或存儲到數據庫
完整代碼示例請參考GitHub開源項目(需自行實現反爬邏輯)。 “`
(注:實際代碼需根據美團當前頁面結構調整,本文示例僅供參考,具體實現可能需處理加密參數或動態令牌。)
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。