這篇文章將為大家詳細講解有關使用代理proxy抓取網頁的案例,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
代理類型(proxy):透明代理,匿名代理,混淆代理和高匿代理. 這里寫一些python爬蟲使用代理的知識, 還有一個代理池的類. 方便大家應對工作中各種復雜的抓取問題。
urllib 模塊使用代理
urllib/urllib2使用代理比較麻煩, 需要先構建一個ProxyHandler的類, 隨后將該類用于構建網頁打開的opener的類,再在request中安裝該opener.
代理格式是"http://127.0.0.1:80",如果要賬號密碼是"http://user:password@127.0.0.1:80".
proxy="http://127.0.0.1:80" # 創建一個ProxyHandler對象 proxy_support=urllib.request.ProxyHandler({'http':proxy}) # 創建一個opener對象 opener = urllib.request.build_opener(proxy_support) # 給request裝載opener urllib.request.install_opener(opener) # 打開一個url r = urllib.request.urlopen('http://youtube.com',timeout = 500)
requests 模塊使用代理
requests使用代理要比urllib簡單多了…這里以單次代理為例. 多次的話可以用session一類構建.
如果需要使用代理,你可以通過為任意請求方法提供 proxies 參數來配置單個請求:
import requests proxies = { "http": "http://127.0.0.1:3128", "https": "http://127.0.0.1:2080", } r=requests.get("http://youtube.com", proxies=proxies) print r.text
你也可以通過環境變量 HTTP_PROXY 和 HTTPS_PROXY 來配置代理。
export HTTP_PROXY="http://127.0.0.1:3128" export HTTPS_PROXY="http://127.0.0.1:2080" python >>> import requests >>> r=requests.get("http://youtube.com") >>> print r.text
若你的代理需要使用HTTP Basic Auth,可以使用 http://user:password@host/ 語法:
proxies = { "http": "http://user:pass@127.0.0.1:3128/", }
python的代理使用非常簡單, 最重要的是要找一個網絡穩定可靠的代理。
關于使用代理proxy抓取網頁的案例就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。