本篇內容介紹了“怎么用Python快速下載大文件”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
使用以下流式代碼,無論下載文件的大小如何,Python 內存占用都不會增加:
def download_file(url):
local_filename = url.split('/')[-1]
# 注意傳入參數 stream=True
with requests.get(url, stream=True) as r:
r.raise_for_status()
with open(local_filename, 'wb') as f:
for chunk in r.iter_content(chunk_size=8192):
f.write(chunk)
return local_filename如果你有對 chunk 編碼的需求,那就不該傳入 chunk_size 參數,且應該有 if 判斷。
def download_file(url):
local_filename = url.split('/')[-1]
# 注意傳入參數 stream=True
with requests.get(url, stream=True) as r:
r.raise_for_status()
with open(local_filename, 'w') as f:
for chunk in r.iter_content():
if chunk:
f.write(chunk.decode("utf-8"))
return local_filenameiter_content[1] 函數本身也可以解碼,只需要傳入參數 decode_unicode = True 即可。另外,搜索公眾號頂級Python后臺回復“進階”,獲取一份驚喜禮包。
請注意,使用 iter_content 返回的字節數并不完全是 chunk_size,它是一個通常更大的隨機數,并且預計在每次迭代中都會有所不同。
使用 Response.raw[2] 和 shutil.copyfileobj[3]
import requests
import shutil
def download_file(url):
local_filename = url.split('/')[-1]
with requests.get(url, stream=True) as r:
with open(local_filename, 'wb') as f:
shutil.copyfileobj(r.raw, f)
return local_filename這將文件流式傳輸到磁盤而不使用過多的內存,并且代碼更簡單。
注意:根據文檔,Response.raw 不會解碼,因此如果需要可以手動替換 r.raw.read 方法
response.raw.read = functools.partial(response.raw.read, decode_content=True)
方法二更快。方法一如果 2-3 MB/s 的話,方法二可以達到近 40 MB/s。
“怎么用Python快速下載大文件”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。