這篇文章主要介紹了怎么使用python反爬蟲技術限制連續請求時間的相關知識,內容詳細易懂,操作簡單快捷,具有一定借鑒價值,相信大家閱讀完這篇怎么使用python反爬蟲技術限制連續請求時間文章都會有所收獲,下面我們一起來看看吧。
import requests_cacheimport timerequests_cache.install_cache()
#默認按照瀏覽器的緩存進行
requests_cache.clear()
def make_throttle_hook(timeout=0.1):
def hook(response, *args, **kwargs):
print(response.text)
# 判斷沒有緩存時就添加延時
if not getattr(response, 'from_cache', False):
print(f'Wait {timeout} s!')
time.sleep(timeout)
else:
print(f'exists cache: {response.from_cache}')
return response
return hookif __name__ == '__main__':
requests_cache.install_cache()
requests_cache.clear()
session = requests_cache.CachedSession()
# 創建緩存會話
session.hooks = {'response': make_throttle_hook(2)}
# 配置鉤子函數
print('first requests'.center(50,'*'))
session.get('http://httpbin.org/get')
print('second requests'.center(50,'*'))
session.get('http://httpbin.org/get')有關requests_cache的更多用法,參考下面requests_cache說明
httpbin.org 這個網站能測試 HTTP 請求和響應的各種信息,比如 cookie、ip、headers 和登錄驗證等,且支持 GET、POST 等多種方法,對 web 開發和測試很有幫助。它用 Python + Flask 編寫,是一個開源項目。
requests-cache,是 requests 庫的一個擴展包,利用它可以非常方便地實現請求的緩存,直接得到對應的爬取結果。
作用和使用場景
1.在爬取過程中,它可以根據瀏覽器的緩存機制來選擇緩存內容。從請求行為上看與瀏覽器更加相似,起到反反爬的效果。
2.另外,還可以自定義緩存機制,在爬蟲項目中,優化性能。
requests-cache庫只能對requests的請求實現緩存功能,而且requests要以session方式進行請求。單獨的requests.get、requests.post 不能被緩存。
requests
使用方法
安裝:
$ pip install requests-cache
與普通的代碼比較
在爬取一個域名下的多個url時,使用requests.session.get或requests.session.post會比單純的requests.get、requests.post更高效。因為它只建立了一個會話,并在上面做多次請求。同時還支持登錄信息cookie等的傳遞。
下面比較一下緩存代碼的寫法 沒有緩存的代碼:
普通的requests session爬取
import requests
import time
start = time.time()
session = requests.Session()
for i in range(10):
session.get('http://httpbin.org/delay/1')
print(f'Finished {i + 1} requests')
end = time.time()
print('Cost time', end - start)該代碼是訪問了httpbin.org網站,該網站會解析delay/1,在1秒后返回。
有緩存的代碼:
帶緩存的requests session爬取
import requests_cache #pip install requests_cache
import time
start = time.time()
session = requests_cache.CachedSession('demo_cache')
for i in range(10):
session.get('http://httpbin.org/delay/1')
print(f'Finished {i + 1} requests')
end = time.time()
print('Cost time', end - start)只需要添加一句requests_cache.install_cache('demo_cache')即可。
微創式添加緩存功能
import requests_cache #pip install requests_cache
requests_cache.install_cache('demo_cache')#demo_cache.sqlite 做緩存
import requests
import time
start = time.time()
session = requests.Session()
for i in range(10):
session.get('http://httpbin.org/delay/1')
print(f'Finished {i + 1} requests')
end = time.time()
print('Cost time', end - start)如果需要清空緩存,可以調用:requests_cache.clear() # 清空緩存代碼
通過res.from_cache可以判斷該值是否是緩存值:
import requests_cache
import requests
requests_cache.install_cache() # 設置緩存
requests_cache.clear() # 清空緩存
url = 'http://httpbin.org/get'
res = requests.get(url)
print(f'cache exists: {res.from_cache}')
# cache exists: False # 不存在緩存
res = requests.get(url)
print(f'exists cache: {res.from_cache}')
# exists cache: True # 存在緩存requests_cache.install_cache默認的方式是與瀏覽器的緩存行為一致的。如果要自定義可以先了解該函數的參數:
requests_cache.install_cache定義
requests_cache.install_cache(
cache_name='cache',
backend=None,
expire_after=None,
allowable_codes=(200,),
allowable_methods=('GET',),
filter_fn=<
function <lambda> at 0x11c927f80>,
session_factory=<
class 'requests_cache.core.CachedSession'>,
**backend_options,)該參數說明如下: - cache_name:緩存文件名稱。
backend:設置緩存的存儲機制,默認使用sqlite進行存儲。
支持四種不同的存儲機制,分別為memory、sqlite、mongoDB、redis。在設置存儲機制為mongoDB、redis時需要提前安裝對應的模塊。pip install pymongo; pip install redies。
memory:以字典的形式將緩存存儲在內存當中,程序運行完以后緩存將被銷毀
sqlite:將緩存存儲在sqlite數據庫中
mongoDB:將緩存存儲在mongoDB數據庫中
redis:將緩存存儲在redis中
expire_after:設置緩存的有效時間,默認永久有效。
allowable_codes:設置狀態碼。
allowable_methods:設置請求方式,默認get,表示只有get請求才可以生成緩存。
session_factory:設置緩存執行的對象,需要實現CachedSession類。
**backend_options:如果緩存的存儲方式為sqlit、mongo、redis數據庫,該參數表示設置數據庫的連接方式。
設置緩存文件類型的代碼如下:
#設置緩存:任選其一
requests_cache.install_cache('demo_cache')#demo_cache.sqlite 做緩存
#demo_cache文件夾做緩存,刪除及表示清空緩存
requests_cache.install_cache('demo_cache', backend='filesystem')
#緩存文件夾便會使用系統的臨時目錄,而不會在代碼區創建緩存文件夾。
requests_cache.install_cache('demo_cache', backend='filesystem', use_temp=True)
#緩存文件夾便會使用系統的專用緩存文件夾,而不會在代碼區創建緩存文件夾
requests_cache.install_cache('demo_cache', backend='filesystem', use_cache_dir=True)
#Redis ,需要安裝redis-py pip install redies
backend = requests_cache.RedisCache(host='localhost', port=6379)
requests_cache.install_cache('demo_cache', backend=backend)其他不同格式:
MongoDB 安裝pymongo pip install pymongo;
調用requests_cache.MongoCache 保存為’mongodb’
gridfs 安裝pymongo
調用requests_cache.GridFSCache 保存為’gridfs’
DynamoDB boto3 調用requests_cache.DynamoDbCache 保存為’dynamodb’
Memory 以字典的形式將緩存存儲在內存當中,程序運行完以后緩存將被銷毀 調用requests_cache.BaseCache 保存為’memory’
具體例子代碼如下:
import time
import requests
import requests_cache
#只緩存post
requests_cache.install_cache('demo_cache2', allowable_methods=['POST'])
#只緩存200返回值的請求
requests_cache.install_cache('demo_cache2', allowable_codes=(200,))只緩存200返回值的請求
設置緩存的過期時間:
#site1.com 的內容就會緩存 30 秒,site2.com/static 的內容就永遠不會過期
urls_expire_after = {'*.site1.com': 30, 'site2.com/static': -1}
requests_cache.install_cache(
'demo_cache2', urls_expire_after=urls_expire_after)在響應頭中,瀏覽器會根據cache_control參數來確定是否保存緩存,在設置requests_cache緩存時,可以對cache_control參數設置,使其保存瀏覽器不需要保存的內容。
# 保存頭中,cache_control設為不保存的請求
requests_cache.install_cache('demo_cache3', cache_control=True)
start = time.time()
session = requests.Session()
for i in range(10):
session.get('http://httpbin.org/delay/1')
print(f'Finished {i + 1} requests')
end = time.time()
print('Cost time for get', end - start)
start = time.time()
for i in range(10):
session.post('http://httpbin.org/delay/1')
print(f'Finished {i + 1} requests')
end = time.time()
print('Cost time for post', end - start)在 Request Headers 里面加上了 Cache-Control 為 no-store,這樣的話,即使我們聲明了緩存那也不會生效
session.get('http://httpbin.org/delay/1',
headers={
'Cache-Control': 'no-store'
}
)關于“怎么使用python反爬蟲技術限制連續請求時間”這篇文章的內容就介紹到這里,感謝各位的閱讀!相信大家對“怎么使用python反爬蟲技術限制連續請求時間”知識都有一定的了解,大家如果還想學習更多知識,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。