91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬蟲中怎么使用線程池

發布時間:2022-02-28 15:30:13 來源:億速云 閱讀:186 作者:iii 欄目:開發技術

這篇文章主要介紹“Python爬蟲中怎么使用線程池”,在日常操作中,相信很多人在Python爬蟲中怎么使用線程池問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”Python爬蟲中怎么使用線程池”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

一、前言

學到現在,我們可以說已經學習了爬蟲的基礎知識,如果沒有那些奇奇怪怪的反爬蟲機制,基本上只要有時間分析,一般的數據都是可以爬取的,那么到了這個時候我們需要考慮的就是爬取的效率了,關于提高爬蟲效率,也就是實現異步爬蟲,我們可以考慮以下兩種方式:一是線程池的使用(也就是實現單進程下的多線程),一是協程的使用(如果沒有記錯,我所使用的協程模塊是從python3.4以后引入的,我寫博客時使用的python版本是3.9)。

今天我們先來講講線程池。

二、同步代碼演示

我們先用普通的同步的形式寫一段代碼

import time

def func(url):
    print("正在下載:", url)
    time.sleep(2)
    print("下載完成:", url)

if __name__ == '__main__':
    start = time.time() # 開始時間

    url_list = [
        "a", "b", "c"
    ]

    for url in url_list:
        func(url)

    end = time.time() # 結束時間

    print(end - start)

不出所料。運行時間果然是六秒

三、異步,線程池代碼

那么如果我們使用線程池運行上述代碼又會怎樣呢?

import time
from multiprocessing import Pool

def func(url):
    print("正在下載:", url)
    time.sleep(2)
    print("下載完成:", url)

if __name__ == '__main__':
    start = time.time() # 開始時間

    url_list = [
        "a", "b", "c"
    ]

    pool = Pool(len(url_list)) # 實例化一個線程池對象,并且設定線程池的上限數量為列表長度。不設置上限也可以。

    pool.map(func, url_list)

    end = time.time() # 結束時間

    print(end - start)

我們發現這次我們的運行時間只用2~3秒。其實我們可以將線程池簡單的理解為將多個任務同時進行。

注意:

1.我使用的是 pycharm,如果使用的是 VS 或者說是 python 自帶的 idle,在運行時我們只能看到最后時間的輸出。

2.我們輸出結果可能并不是按 abc 的順序輸出的。

四、同步爬蟲爬取圖片

因為我們的重點是線程池的爬取效率提高,我們就簡單的爬取一頁的圖片。

import requests
import time
import os
from lxml import etree

def save_photo(url, title):
    # UA偽裝
    header = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"
    }

    # 發送請求
    photo = requests.get(url=url, headers=header).content

    # 創建路徑,避免重復下載
    if not os.path.exists("C:\Users\ASUS\Desktop\CSDN\高性能異步爬蟲\線程池\同步爬蟲爬取4K美女圖片\" + title + ".jpg"):
        with open("C:\Users\ASUS\Desktop\CSDN\高性能異步爬蟲\線程池\同步爬蟲爬取4K美女圖片\" + title + ".jpg", "wb") as fp:
            print(title, "開始下載!!!")
            fp.write(photo)
            print(title, "下載完成!!!")

if __name__ == '__main__':
    start = time.time()

    # 創建文件夾
    if not os.path.exists("C:\Users\ASUS\Desktop\CSDN\高性能異步爬蟲\線程池\同步爬蟲爬取4K美女圖片"):
        os.mkdir("C:\Users\ASUS\Desktop\CSDN\高性能異步爬蟲\線程池\同步爬蟲爬取4K美女圖片")

    # UA偽裝
    header = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"
    }

    # 指定url
    url = "https://pic.netbian.com/4kmeinv/"

    # 發送請求,獲取源碼
    page = requests.get(url = url, headers = header).text

    # xpath 解析,獲取圖片的下載地址的列表
    tree = etree.HTML(page)
    url_list = tree.xpath('//*[@id="main"]/div[3]/ul/li/a/@href')
    # 通過下載地址獲取高清圖片的地址和圖片名稱
    for href in url_list:
        new_url = "https://pic.netbian.com" + href
        # 再一次發送請求
        page = requests.get(url = new_url, headers = header).text
        # 再一次 xpath 解析
        new_tree = etree.HTML(page)
        src = "https://pic.netbian.com" + new_tree.xpath('//*[@id="img"]/img/@src')[0]
        title = new_tree.xpath('//*[@id="img"]/img/@title')[0].split(" ")[0]
        # 編譯文字
        title = title.encode("iso-8859-1").decode("gbk")
        # 下載,保存
        save_photo(src, title)

    end = time.time()
    print(end - start)

讓我們看看同步爬蟲需要多長時間

然后再讓我們看看使用線程池的異步爬蟲爬取這些圖片需要多久

五、使用線程池的異步爬蟲爬取4K美女圖片

import requests
import time
import os
from lxml import etree
from multiprocessing import Pool

def save_photo(src_title):
    # UA偽裝
    header = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"
    }

    # 發送請求
    url = src_title[0]
    title = src_title[1]
    photo = requests.get(url=url, headers=header).content

    # 創建路徑,避免重復下載
    if not os.path.exists("C:\Users\ASUS\Desktop\CSDN\高性能異步爬蟲\線程池\異步爬蟲爬取4K美女圖片\" + title + ".jpg"):
        with open("C:\Users\ASUS\Desktop\CSDN\高性能異步爬蟲\線程池\異步爬蟲爬取4K美女圖片\" + title + ".jpg", "wb") as fp:
            print(title, "開始下載!!!")
            fp.write(photo)
            print(title, "下載完成!!!")

if __name__ == '__main__':
    start = time.time()

    # 創建文件夾
    if not os.path.exists("C:\Users\ASUS\Desktop\CSDN\高性能異步爬蟲\線程池\異步爬蟲爬取4K美女圖片"):
        os.mkdir("C:\Users\ASUS\Desktop\CSDN\高性能異步爬蟲\線程池\異步爬蟲爬取4K美女圖片")

    # UA偽裝
    header = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"
    }

    # 指定url
    url = "https://pic.netbian.com/4kmeinv/"

    # 發送請求,獲取源碼
    page = requests.get(url = url, headers = header).text

    # xpath 解析,獲取圖片的下載地址的列表
    tree = etree.HTML(page)
    url_list = tree.xpath('//*[@id="main"]/div[3]/ul/li/a/@href')
    # 存儲最后的網址和標題的列表
    src_list = []
    title_list = []
    # 通過下載地址獲取高清圖片的地址和圖片名稱
    for href in url_list:
        new_url = "https://pic.netbian.com" + href
        # 再一次發送請求
        page = requests.get(url = new_url, headers = header).text
        # 再一次 xpath 解析
        new_tree = etree.HTML(page)
        src = "https://pic.netbian.com" + new_tree.xpath('//*[@id="img"]/img/@src')[0]
        src_list.append(src)
        title = new_tree.xpath('//*[@id="img"]/img/@title')[0].split(" ")[0]
        # 編譯文字
        title = title.encode("iso-8859-1").decode("gbk")
        title_list.append(title)

    # 下載,保存。使用線程池
    pool = Pool()
    src_title = zip(src_list, title_list)
    pool.map(save_photo, list(src_title))

    end = time.time()
    print(end - start)

到此,關于“Python爬蟲中怎么使用線程池”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

两当县| 雷波县| 徐汇区| 普定县| 大港区| 白银市| 辰溪县| 台中市| 漳州市| 德庆县| 元朗区| 北安市| 德昌县| 盈江县| 太谷县| 扎赉特旗| 吉安市| 岐山县| 泾川县| 新营市| 德清县| 平和县| 五寨县| 石家庄市| 新河县| 新宾| 田阳县| 株洲县| 萍乡市| 安国市| 衡东县| 稷山县| 中山市| 扶余县| 渭源县| 莆田市| 思南县| 定州市| 建湖县| 岳阳县| 会东县|