您好,登錄后才能下訂單哦!
本文小編為大家詳細介紹“Python爬蟲中的并發編程怎么應用”,內容詳細,步驟清晰,細節處理妥當,希望這篇“Python爬蟲中的并發編程怎么應用”文章能幫助大家解決疑惑,下面跟著小編的思路慢慢深入,一起來學習新知識吧。
并發編程是指在一個時間段內,能夠執行多個操作的程序設計,通常表現為程序中有多個任務同時啟動,可以運行并且相互之間不會產生影響。并發編程的好處是可以提高程序的性能和響應能力。
爬蟲程序是典型的 I/O 密集型任務,對于 I/O 密集型任務來說,多線程和異步 I/O 都是很好的選擇,因為當程序的某個部分因 I/O 操作阻塞時,程序的其他部分仍然可以運轉,這樣我們不用在等待和阻塞中浪費大量的時間。
我們首先來看單線程版本的爬蟲程序。這個爬蟲程序使用了requests
庫獲取 JSON 數據,并通過open
函數將圖片保存到本地。
""" example04.py - 單線程版本爬蟲 """ import os import requests def download_picture(url): filename = url[url.rfind('/') + 1:] resp = requests.get(url) if resp.status_code == 200: with open(f'images/beauty/{filename}', 'wb') as file: file.write(resp.content) def main(): if not os.path.exists('images/beauty'): os.makedirs('images/beauty') for page in range(3): resp = requests.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}') if resp.status_code == 200: pic_dict_list = resp.json()['list'] for pic_dict in pic_dict_list: download_picture(pic_dict['qhimg_url']) if __name__ == '__main__': main()
在 macOS 或 Linux 系統上,我們可以使用time
命令來了解上面代碼的執行時間以及 CPU 的利用率,如下所示。
time python3 example04.py
下面是單線程爬蟲代碼在我的電腦上執行的結果。
python3 example04.py 2.36s user 0.39s system 12% cpu 21.578 total
這里我們只需要關注代碼的總耗時為21.578
秒,CPU 利用率為12%
。
我們使用之前講到過的線程池技術,將上面的代碼修改為多線程版本。
""" example05.py - 多線程版本爬蟲 """ import os from concurrent.futures import ThreadPoolExecutor import requests def download_picture(url): filename = url[url.rfind('/') + 1:] resp = requests.get(url) if resp.status_code == 200: with open(f'images/beauty/{filename}', 'wb') as file: file.write(resp.content) def main(): if not os.path.exists('images/beauty'): os.makedirs('images/beauty') with ThreadPoolExecutor(max_workers=16) as pool: for page in range(3): resp = requests.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}') if resp.status_code == 200: pic_dict_list = resp.json()['list'] for pic_dict in pic_dict_list: pool.submit(download_picture, pic_dict['qhimg_url']) if __name__ == '__main__': main()
執行如下所示的命令。
time python3 example05.py
代碼的執行結果如下所示:
python3 example05.py 2.65s user 0.40s system 95% cpu 3.193 total
我們使用aiohttp
將上面的代碼修改為異步 I/O 的版本。為了以異步 I/O 的方式實現網絡資源的獲取和寫文件操作,我們首先得安裝三方庫aiohttp
和aiofile
。
pip install aiohttp aiofile
下面是異步 I/O 版本的爬蟲代碼。
""" example06.py - 異步I/O版本爬蟲 """ import asyncio import json import os import aiofile import aiohttp async def download_picture(session, url): filename = url[url.rfind('/') + 1:] async with session.get(url, ssl=False) as resp: if resp.status == 200: data = await resp.read() async with aiofile.async_open(f'images/beauty/{filename}', 'wb') as file: await file.write(data) async def main(): if not os.path.exists('images/beauty'): os.makedirs('images/beauty') async with aiohttp.ClientSession() as session: tasks = [] for page in range(3): resp = await session.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}') if resp.status == 200: pic_dict_list = (await resp.json())['list'] for pic_dict in pic_dict_list: tasks.append(asyncio.ensure_future(download_picture(session, pic_dict['qhimg_url']))) await asyncio.gather(*tasks) if __name__ == '__main__': loop = asyncio.get_event_loop() loop.run_until_complete(main())
執行如下所示的命令。
time python3 example06.py
代碼的執行結果如下所示:
python3 example06.py 0.92s user 0.27s system 290% cpu 0.420 total
相對于單線程版本的爬蟲程序,多線程版本和異步 I/O 版本的爬蟲程序在執行上的時間上有了顯著的提升,而且異步 I/O 版本的爬蟲程序表現最佳。
讀到這里,這篇“Python爬蟲中的并發編程怎么應用”文章已經介紹完畢,想要掌握這篇文章的知識點還需要大家自己動手實踐使用過才能領會,如果想了解更多相關內容的文章,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。