您好,登錄后才能下訂單哦!
本文小編為大家詳細介紹“Python怎么快速下載大文件”,內容詳細,步驟清晰,細節處理妥當,希望這篇“Python怎么快速下載大文件”文章能幫助大家解決疑惑,下面跟著小編的思路慢慢深入,一起來學習新知識吧。
方法一
使用以下流式代碼,無論下載文件的大小如何,Python 內存占用都不會增加:
def download_file(url): local_filename = url.split('/')[-1] # 注意傳入參數 stream=True with requests.get(url, stream=True) as r: r.raise_for_status() with open(local_filename, 'wb') as f: for chunk in r.iter_content(chunk_size=8192): f.write(chunk) return local_filename
如果你有對 chunk 編碼的需求,那就不該傳入 chunk_size 參數,且應該有 if 判斷。
def download_file(url): local_filename = url.split('/')[-1] # 注意傳入參數 stream=True with requests.get(url, stream=True) as r: r.raise_for_status() with open(local_filename, 'w') as f: for chunk in r.iter_content(): if chunk: f.write(chunk.decode("utf-8")) return local_filename
iter_content [1] 函數本身也可以解碼,只需要傳入參數 decode_unicode = True 即可。
請注意,使用 iter_content 返回的字節數并不完全是 chunk_size,它是一個通常更大的隨機數,并且預計在每次迭代中都會有所不同。
方法二
使用 Response.raw
和 shutil.copyfileobj
import requests import shutil def download_file(url): local_filename = url.split('/')[-1] with requests.get(url, stream=True) as r: with open(local_filename, 'wb') as f: shutil.copyfileobj(r.raw, f) return local_filename
這將文件流式傳輸到磁盤而不使用過多的內存,并且代碼更簡單。
注意:根據文檔,Response.raw 不會解碼,因此如果需要可以手動替換 r.raw.read 方法
response.raw.read = functools.partial(response.raw.read, decode_content=True)
速度
方法二更快。方法一如果 2-3 MB/s 的話,方法二可以達到近 40 MB/s。
讀到這里,這篇“Python怎么快速下載大文件”文章已經介紹完畢,想要掌握這篇文章的知識點還需要大家自己動手實踐使用過才能領會,如果想了解更多相關內容的文章,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。