91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python如何爬取熱門電影

發布時間:2022-02-21 16:00:02 來源:億速云 閱讀:231 作者:iii 欄目:開發技術

本篇內容主要講解“python如何爬取熱門電影”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“python如何爬取熱門電影”吧!

代碼實現

'''
爬取電影與地址路徑

操作步驟
1,獲取到url內容

2,css選擇其選擇內容

3,保存自己需要數據

'''
#導入爬蟲需要的包
import requests
from bs4 import BeautifulSoup
#requests與BeautifulSoup用來解析網頁的
import time
#設置訪問網頁時間,防止自己IP訪問多了被限制拒絕訪問
import re
class Position():

    def __init__(self,position_name,position_require,):#構建對象屬性
        self.position_name=position_name
        self.position_require=position_require

    def __str__(self):
        return '%s%s/n'%(self.position_name,self.position_require)#重載方法將輸入變量改成字符串形式

class Aiqiyi():
    def iqiyi(self,url):
        head= {
            'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.67 Safari/537.36 Edg/87.0.664.47"
        }  #模擬的服務器頭
        html = requests.get(url,headers=head)
        #headers=hard 讓腳本以瀏覽器的方式去訪問,有一些網址禁止以python的反爬機制,這就是其中一個
        soup = BeautifulSoup(html.content, 'lxml', from_encoding='utf-8')  # BeautifulSoup打看網頁
        soupl = soup.select(".qy-list-wrap")  # 查找標簽,用css選擇器,選擇自己需要數據 進行選擇頁面第一次內容(標簽要找到唯一的,找id好,如果沒有考慮其他標簽如class)
        results = []  # 創建一個列表用來存儲數據
        for e in soupl:
            biao = e.select('.qy-mod-li')  # 進行二次篩選
            for h in biao:
                p=Position(h.select_one('.qy-mod-link-wrap').get_text(strip=True),
                       h.select_one('.title-wrap').get_text(strip=True))#調用類轉換(繼續三次篩選選擇自己需要內容)
                results.append(p)
        return results  # 返回內容

    def address(self,url):
        #保存網址
        head = {
            'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.67 Safari/537.36 Edg/87.0.664.47"
        }  # 模擬的服務器頭
        html = requests.get(url, headers=head)
        soup = BeautifulSoup(html.content, 'lxml', from_encoding='utf-8')  # BeautifulSoup打看網頁
        alist = soup.find('div', class_='qy-list-wrap').find_all("a")  # 查找div塊模塊下的  a標簽
        ls=[]
        for i in alist:
            ls.append(i.get('href'))

        return ls



if __name__ == '__main__':
    time.sleep(2)
    #設置2秒訪問一次
    a=Aiqiyi()
    url = "https://list.*****.com/www/1/-------------11-1-1-iqiyi--.html"
    with open(file='e:/練習.txt ', mode='a+') as f:  # e:/練習.txt 為我電腦新建的文件,a+為給內容進行添加,但不進行覆蓋原內容。
         for item in a.iqiyi(url):
             line = f'{item.position_name}	{item.position_require}
'
             f.write(line)  # 采用方法
             print("下載完成")
    with open(file='e:/地址.txt ', mode='a+') as f:  # e:/練習.txt 為我電腦新建的文件,a+為給內容進行添加,但不進行覆蓋原內容。
        for item in a.address(url):
            line=f'https{item}
'
            f.write(line)  # 采用方法
            print("下載完成")

到此,相信大家對“python如何爬取熱門電影”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

平陆县| 永清县| 肃北| 海原县| 兰溪市| 营口市| 福鼎市| 淮安市| 石台县| 荔浦县| 连江县| 龙南县| 辽宁省| 高陵县| 东宁县| 应用必备| 新安县| 稷山县| 西峡县| 贡山| 宁国市| 普陀区| 莱芜市| 焦作市| 吉首市| 盐源县| 增城市| 梅州市| 余江县| 缙云县| 万荣县| 霍州市| 久治县| 昆明市| 宁国市| 伽师县| 同仁县| 湖口县| 安泽县| 乡城县| 娄烦县|