91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬蟲入門【13】:All IT eBooks多線程爬取

發布時間:2020-08-10 11:44:10 來源:網絡 閱讀:247 作者:學Python派森 欄目:編程語言

All IT eBooks多線程爬取-寫在前面

對一個爬蟲愛好者來說,或多或少都有這么一點點的收集癖 ~ 發現好的圖片,發現好的書籍,發現各種能存放在電腦上的東西,都喜歡把它批量的爬取下來。 然后放著,是的,就這么放著.......然后慢慢的遺忘掉.....

Python爬蟲入門【13】:All IT eBooks多線程爬取

All IT eBooks多線程爬取-爬蟲分析

打開網址 http://www.allitebooks.com/ 發現特別清晰的小頁面,一看就好爬

Python爬蟲入門【13】:All IT eBooks多線程爬取

在點擊一本圖書進入,發現下載的小鏈接也很明顯的展示在了我們面前,小激動一把,這么清晰無廣告的網站不多見了。

Python爬蟲入門【13】:All IT eBooks多線程爬取

All IT eBooks多線程爬取-擼代碼

這次我采用了一個新的模塊 requests-html 這個模塊的作者之前開發了一款 requests,你應該非常熟悉了,線程控制采用的 queue
安裝 requests-html 模塊

pip install requests-html

關于這個模塊的使用,你只需要使用搜索引擎搜索一下這個模塊名稱,那文章也是很多滴,作為能學到這篇博客的你來說,是很簡單的拉~

我們編寫一下核心的內容

from requests_html import HTMLSession
from queue import Queue
import requests
import random

import threading
CARWL_EXIT = False
DOWN_EXIT = False

#####
# 其他代碼
####
if __name__ == '__main__':

    page_queue = Queue(5)
    for i in range(1,6):
        page_queue.put(i)  # 把頁碼存儲到page_queue里面

    # 采集結果
    data_queue = Queue()

    # 記錄線程列表
    thread_crawl = []
    # 每次開啟5個線程
    craw_list = ["采集線程1號","采集線程2號","采集線程3號","采集線程4號","采集線程5號"]

    for thread_name in craw_list:
        c_thread = ThreadCrawl(thread_name,page_queue,data_queue)
        c_thread.start()
        thread_crawl.append(c_thread)

    while not page_queue.empty():
        pass

    # 如果page_queue為空,采集線程退出循環
    CARWL_EXIT = True
    for thread in thread_crawl:
        thread.join()
        print("抓取線程結束")

上面就是爬取圖書詳情頁面的線程了,我開啟了5個線程爬取,頁碼也只爬取了5 頁,如果你需要更多的,只需要修改

    page_queue = Queue(5)
    for i in range(1,6):
        page_queue.put(i)  # 把頁碼存儲到page_queue里面
Python資源分享qun 784758214 ,內有安裝包,PDF,學習視頻,這里是Python學習者的聚集地,零基礎,進階,都歡迎

下面我們把 ThreadCrawl 類編寫完畢

session = HTMLSession()

# 這個地方是 User_Agents 以后我把他配置到服務器上面,就可以遠程獲取了  這個列表里面有很多項,你自己去源碼里面找吧
USER_AGENTS = [
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_3) AppleWebKit/535.20 (KHTML, like Gecko) Chrome/19.0.1036.7 Safari/535.20"
]
# 獲取圖書下載鏈接的線程類
class ThreadCrawl(threading.Thread):
    # 構造函數
    def __init__(self,thread_name,page_queue,data_queue):

        super(ThreadCrawl,self).__init__()
        self.thread_name = thread_name
        self.page_queue = page_queue
        self.data_queue = data_queue
        self.page_url = "http://www.allitebooks.com/page/{}"   #URL拼接模板

    def run(self):
        print(self.thread_name+" 啟動*********")

        while not CARWL_EXIT:
            try:
                page = self.page_queue.get(block=False)
                page_url = self.page_url.format(page)   # 拼接URL操作
                self.get_list(page_url)   # 分析頁面鏈接 

            except Exception as e:
                print(e)
                break

    # 獲取當前列表頁所有圖書鏈接
    def get_list(self,url):
        try:
            response = session.get(url)
        except Exception as e:
            print(e)
            raise e

        all_link = response.html.find('.entry-title>a') # 獲取頁面所有圖書詳情鏈接

        for link in all_link:
            self.get_book_url(link.attrs['href'])   # 獲取圖書鏈接

    # 獲取圖書下載鏈接
    def get_book_url(self,url):
        try:
            response = session.get(url)

        except Exception as e:
            print(e)
            raise e

        download_url = response.html.find('.download-links a', first=True)

        if download_url is not None: # 如果下載鏈接存在,那么繼續下面的爬取工作
            link = download_url.attrs['href']
            self.data_queue.put(link)   # 把圖書下載地址 存儲到 data_queue里面,準備后面的下載
            print("抓取到{}".format(link))

上述代碼一個非常重要的內容就是把圖書的下載鏈接存儲到了data_queue 里面,這些數據 在另一個下載線程里面是最基本的數據。

下面開始 編寫圖書下載的類和方法。

我開啟了4個線程,操作和上面的非常類似

class ThreadDown(threading.Thread):
    def __init__(self, thread_name, data_queue):
        super(ThreadDown, self).__init__()
        self.thread_name = thread_name
        self.data_queue = data_queue

    def run(self):
        print(self.thread_name + ' 啟動************')
        while not DOWN_EXIT:
            try:
                book_link = self.data_queue.get(block=False)
                self.download(book_link)
            except Exception as e:
                pass

    def download(self,url):
        # 隨機瀏覽器User-Agent
        headers = {"User-Agent":random.choice(USER_AGENTS)}
        # 獲取文件名字
        filename = url.split('/')[-1]
        # 如果url里面包含pdf
        if '.pdf' in url or '.epub' in url:
            file = 'book/'+filename  # 文件路徑已經寫死,請在跟目錄先創建好一個book文件夾
            with open(file,'wb') as f:  # 開始二進制寫文件
                print("正在下載 {}".format(filename))
                response = requests.get(url,stream=True,headers=headers)
                # 獲取文件大小
                totle_length = response.headers.get("content-length")
                # 如果文件大小不存在,則直接寫入返回的文本
                if totle_length is None:
                    f.write(response.content)
                else:
                    for data in response.iter_content(chunk_size=4096):
                        f.write(data)
                    else:
                        f.close()

                print("{}下載完成".format(filename))

if __name__ == '__main__': 

# 其他代碼在上面
    thread_image = []
    image_list = ['下載線程1號', '下載線程2號', '下載線程3號', '下載線程4號']
    for thread_name in image_list:
        d_thread = ThreadDown(thread_name, data_queue)
        d_thread.start()
        thread_image.append(d_thread)

    while not data_queue.empty():
        pass

    DOWN_EXIT = True
    for thread in thread_image:
        thread.join()
        print("下載線程結束")
Python資源分享qun 784758214 ,內有安裝包,PDF,學習視頻,這里是Python學習者的聚集地,零基礎,進階,都歡迎

如果你把我上面的代碼都組合完畢,那么應該可以很快速的去爬取圖書了,當然這些圖書都是英文了,下載下來你能不能讀....... 我就不知道了。

Python爬蟲入門【13】:All IT eBooks多線程爬取

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

海晏县| 乳源| 阳西县| 吉安县| 抚州市| 宁津县| 上饶县| 五常市| 平遥县| 子洲县| 油尖旺区| 中卫市| 古田县| 崇信县| 赣榆县| 荥经县| 九台市| 孙吴县| 南雄市| 枣强县| 七台河市| 崇左市| 吕梁市| 浏阳市| 刚察县| 左贡县| 呈贡县| 阿合奇县| 黑龙江省| 临安市| 托克逊县| 余庆县| 咸丰县| 方正县| 宝清县| 西乌| 厦门市| 全州县| 大埔区| 仪陇县| 简阳市|