91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何使用python網絡爬蟲基于selenium爬取斗魚直播信息

發布時間:2022-03-15 09:13:48 來源:億速云 閱讀:207 作者:小新 欄目:開發技術

這篇文章給大家分享的是有關如何使用python網絡爬蟲基于selenium爬取斗魚直播信息的內容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

    一、本文使用的第三方包和工具

    python 3.8  

    谷歌瀏覽器

    selenium(3.141.0)(pip install selenium == 3.141.0)注意4.0系列和3.0系列方法不同

    瀏覽器驅動(和你的瀏覽器版本對應)

    二、selenium的介紹和瀏覽器驅動的安裝

    1.selenium的介紹

        selenium是一款web自動化測試工具,可以很方便地模擬真實用戶對瀏覽器進行操作,它支持各種主流瀏覽器:IE、Chrome、Firefox、Safari、Opera等。你可以使用selenium做web測試或者爬蟲,自動搶票、自動下單也可以用selenium來做。

    2.瀏覽器驅動的安裝

       網上方法很多,友友們自行搜索,在這里提一點注意事項:本文用的是谷歌瀏覽器,瀏覽器驅動要對應谷歌的哦,注意瀏覽器驅動與你的瀏覽器版本相對應,這里給出谷歌瀏覽器驅動的下載地址,友友們按照自己瀏覽器的版本對應現在即可

    http://chromedriver.storage.googleapis.com/index.html

    下載完成后注意配置環境變量哦,不配置也行,不配置就要在代碼中寫上你的Chromedriver.exe文件的路徑或者不寫路徑將你的Chromedriver.exe和py文件放到同一目錄下也可以哦

    三、代碼思路分析

    進入斗魚官網,點到直播,下面的在線直播信息就是我們需要爬取的

    可以看到有標題,類型,姓名,以及熱度,我們爬取這四個字段就行

    然后滑到底部,這里的下一頁是我們控制爬取頁數的

     注意:當我們進入頁面時,雖然有滾動條,但所有直播信息已經加載好,并不是通過滑動然后Ajax加載的,所以在代碼中并不需要寫滑動,直接提取就可以拿到整個頁面的數據。

    1.解析數據的函數

     #解析數據的函數
        def parse(self):
            #強制等待兩秒,等待頁面數據加載完畢
            sleep(2)
            li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
            #print(len(li_list))
            data_list = []
            for li in li_list:
                dic_data = {}
                dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h4').text
                dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h3/div').text
                dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
                dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
                data_list.append(dic_data)
            return data_list

    2.保存數據的函數

     #解析數據的函數
        def parse(self):
            #強制等待兩秒,等待頁面數據加載完畢
            sleep(2)
            li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
            #print(len(li_list))
            data_list = []
            for li in li_list:
                dic_data = {}
                dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h4').text
                dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h3/div').text
                dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
                dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
                data_list.append(dic_data)
            return data_list

    (1)保存為txt文本

    #保存數據的函數
        def save_data(self,data_list,i):
            #在當前目錄下將數據存為txt文件
            with open('./douyu.txt','w',encoding='utf-8') as fp:
                for data in data_list:
                    data = str(data)
                    fp.write(data+'\n')
                print("第%d頁保存完成!" % i)

    (2)保存為json文件

    #保存數據的函數
        def save_data(self,data_list,i):
            with open('./douyu.json','w',encoding='utf-8') as fp:
                 #里面有中文,所以注意ensure_ascii=False
                 data = json.dumps(data_list,ensure_ascii=False)
                 fp.write(data)
                 print("第%d頁保存完成!" % i)

    3.主函數設計

    #主函數
        def run(self):
            #輸入要爬取的頁數,如果輸入負整數,轉化成她的絕對值
            page_num = abs(int(input("請輸入你要爬取的頁數:")))
            #初始化頁數為1
            i = 1
            #判斷輸入的數是否為整數
            if isinstance(page_num,int):
                #實例化瀏覽器對象
                self.bro = webdriver.Chrome(executable_path='../../可執行文件/chromedriver.exe')
                # chromedriver.exe如果已添加到環境變量,可省略executable_path='../../可執行文件/chromedriver.exe'
                self.bro.get(self.url)
                while i <= page_num:
                    #調用解析函數
                    data_list = self.parse()
                    #調用保存函數
                    self.save_data(data_list,i)
                    try:
                        #定位包含“下一頁”字段的按鈕并點擊
                        button = self.bro.find_element_by_xpath('//span[contains(text(),"下一頁")]')
                        button.click()
                        i += 1
                    except:
                        break
                self.bro.quit()
            else:
                print("輸入格式錯誤!")

    四、完整代碼

    from selenium import webdriver
    from time import sleep
    import json
    #創建一個類
    class Douyu():
        def __init__(self):
            self.url = 'https://www.douyu.com/directory/all'
        #解析數據的函數
        def parse(self):
            #強制等待兩秒,等待頁面數據加載完畢
            sleep(2)
            li_list = self.bro.find_elements_by_xpath('//*[@id="listAll"]/section[2]/div[2]/ul/li')
            #print(len(li_list))
            data_list = []
            for li in li_list:
                dic_data = {}
                dic_data['title'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/h4').text
                dic_data['name'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/h3/div').text
                dic_data['art_type'] = li.find_element_by_xpath('./div/a/div[2]/div[1]/span').text
                dic_data['hot'] = li.find_element_by_xpath('./div/a/div[2]/div[2]/span').text
                data_list.append(dic_data)
            return data_list
        #保存數據的函數
        def save_data(self,data_list,i):
            #在當前目錄下將數據存為txt文件
            with open('./douyu.txt','w',encoding='utf-8') as fp:
                for data in data_list:
                    data = str(data)
                    fp.write(data+'\n')
                print("第%d頁保存完成!" % i)
            # json文件的存法
            # with open('./douyu.json','w',encoding='utf-8') as fp:
            # 里面有中文,所以注意ensure_ascii=False
            #     data = json.dumps(data_list,ensure_ascii=False)
            #     fp.write(data)
            #     print("第%d頁保存完成!" % i)
        #主函數
        def run(self):
            #輸入要爬取的頁數,如果輸入負整數,轉化成她的絕對值
            page_num = abs(int(input("請輸入你要爬取的頁數:")))
            #初始化頁數為1
            i = 1
            #判斷輸入的數是否為整數
            if isinstance(page_num,int):
                #實例化瀏覽器對象
                self.bro = webdriver.Chrome(executable_path='../../可執行文件/chromedriver.exe')
                # chromedriver.exe如果已添加到環境變量,可省略executable_path='../../可執行文件/chromedriver.exe'
     
                self.bro.get(self.url)
                while i <= page_num:
                    #調用解析函數
                    data_list = self.parse()
                    #調用保存函數
                    self.save_data(data_list,i)
                    try:
                        #定位包含“下一頁”字段的按鈕并點擊
                        button = self.bro.find_element_by_xpath('//span[contains(text(),"下一頁")]')
                        button.click()
                        i += 1
                    except:
                        break
                self.bro.quit()
            else:
                print("輸入格式錯誤!")
    if __name__ == '__main__':
        douyu = Douyu()
        douyu.run()

    感謝各位的閱讀!關于“如何使用python網絡爬蟲基于selenium爬取斗魚直播信息”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

    向AI問一下細節

    免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

    AI

    信阳市| 高州市| 昌宁县| 汤阴县| 张家川| 肃宁县| 调兵山市| 繁昌县| 德兴市| 连城县| 阳谷县| 界首市| 晋中市| 多伦县| 桐梓县| 望江县| 澄江县| 涿鹿县| 龙里县| 深泽县| 湟中县| 土默特右旗| 黄龙县| 龙口市| 同德县| 苍南县| 寿光市| 两当县| 额敏县| 麻阳| 扎赉特旗| 神池县| 肇州县| 即墨市| 屏南县| 桦川县| 枞阳县| 开原市| 津南区| 元朗区| 灵山县|