您好,登錄后才能下訂單哦!
這篇文章主要講解了“Python爬蟲的并發編程如何應用”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“Python爬蟲的并發編程如何應用”吧!
并發編程是指在一個時間段內,能夠執行多個操作的程序設計,通常表現為程序中有多個任務同時啟動,可以運行并且相互之間不會產生影響。并發編程的好處是可以提高程序的性能和響應能力。
爬蟲程序是典型的 I/O 密集型任務,對于 I/O 密集型任務來說,多線程和異步 I/O 都是很好的選擇,因為當程序的某個部分因 I/O 操作阻塞時,程序的其他部分仍然可以運轉,這樣我們不用在等待和阻塞中浪費大量的時間。
我們首先來看單線程版本的爬蟲程序。這個爬蟲程序使用了requests
庫獲取 JSON 數據,并通過open
函數將圖片保存到本地。
""" example04.py - 單線程版本爬蟲 """ import os import requests def download_picture(url): filename = url[url.rfind('/') + 1:] resp = requests.get(url) if resp.status_code == 200: with open(f'images/beauty/{filename}', 'wb') as file: file.write(resp.content) def main(): if not os.path.exists('images/beauty'): os.makedirs('images/beauty') for page in range(3): resp = requests.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}') if resp.status_code == 200: pic_dict_list = resp.json()['list'] for pic_dict in pic_dict_list: download_picture(pic_dict['qhimg_url']) if __name__ == '__main__': main()
在 macOS 或 Linux 系統上,我們可以使用time
命令來了解上面代碼的執行時間以及 CPU 的利用率,如下所示。
time python3 example04.py
下面是單線程爬蟲代碼在我的電腦上執行的結果。
python3 example04.py 2.36s user 0.39s system 12% cpu 21.578 total
這里我們只需要關注代碼的總耗時為21.578
秒,CPU 利用率為12%
。
我們使用之前講到過的線程池技術,將上面的代碼修改為多線程版本。
""" example05.py - 多線程版本爬蟲 """ import os from concurrent.futures import ThreadPoolExecutor import requests def download_picture(url): filename = url[url.rfind('/') + 1:] resp = requests.get(url) if resp.status_code == 200: with open(f'images/beauty/{filename}', 'wb') as file: file.write(resp.content) def main(): if not os.path.exists('images/beauty'): os.makedirs('images/beauty') with ThreadPoolExecutor(max_workers=16) as pool: for page in range(3): resp = requests.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}') if resp.status_code == 200: pic_dict_list = resp.json()['list'] for pic_dict in pic_dict_list: pool.submit(download_picture, pic_dict['qhimg_url']) if __name__ == '__main__': main()
執行如下所示的命令。
time python3 example05.py
代碼的執行結果如下所示:
python3 example05.py 2.65s user 0.40s system 95% cpu 3.193 total
我們使用aiohttp
將上面的代碼修改為異步 I/O 的版本。為了以異步 I/O 的方式實現網絡資源的獲取和寫文件操作,我們首先得安裝三方庫aiohttp
和aiofile
。
pip install aiohttp aiofile
下面是異步 I/O 版本的爬蟲代碼。
""" example06.py - 異步I/O版本爬蟲 """ import asyncio import json import os import aiofile import aiohttp async def download_picture(session, url): filename = url[url.rfind('/') + 1:] async with session.get(url, ssl=False) as resp: if resp.status == 200: data = await resp.read() async with aiofile.async_open(f'images/beauty/{filename}', 'wb') as file: await file.write(data) async def main(): if not os.path.exists('images/beauty'): os.makedirs('images/beauty') async with aiohttp.ClientSession() as session: tasks = [] for page in range(3): resp = await session.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}') if resp.status == 200: pic_dict_list = (await resp.json())['list'] for pic_dict in pic_dict_list: tasks.append(asyncio.ensure_future(download_picture(session, pic_dict['qhimg_url']))) await asyncio.gather(*tasks) if __name__ == '__main__': loop = asyncio.get_event_loop() loop.run_until_complete(main())
執行如下所示的命令。
time python3 example06.py
代碼的執行結果如下所示:
python3 example06.py 0.92s user 0.27s system 290% cpu 0.420 total
相對于單線程版本的爬蟲程序,多線程版本和異步 I/O 版本的爬蟲程序在執行上的時間上有了顯著的提升,而且異步 I/O 版本的爬蟲程序表現最佳。
感謝各位的閱讀,以上就是“Python爬蟲的并發編程如何應用”的內容了,經過本文的學習后,相信大家對Python爬蟲的并發編程如何應用這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。