91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬蟲中自動爬取某車之家各車銷售數據的示例分析

發布時間:2021-06-04 10:17:01 來源:億速云 閱讀:640 作者:小新 欄目:開發技術

這篇文章主要介紹Python爬蟲中自動爬取某車之家各車銷售數據的示例分析,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

一、目標網頁分析

目標網站是某車之家關于品牌汽車車型的口碑模塊相關數據,比如我們演示的案例奧迪Q5L的口碑頁面如下:

https://k.autohome.com.cn/4851/#pvareaid=3311678

為了演示方式,大家可以直接打開上面這個網址,然后拖到全部口碑位置,找到我們本次采集需要的字段如下圖所示:

Python爬蟲中自動爬取某車之家各車銷售數據的示例分析

采集字段

我們進行翻頁發現,瀏覽器網址發生了變化,大家可以對下如下幾頁的網址找出規律:

https://k.autohome.com.cn/4851/index_2.html#dataList
https://k.autohome.com.cn/4851/index_3.html#dataList
https://k.autohome.com.cn/4851/index_4.html#dataList

對于上面寫網址,我們發現可變部分是車型(如4851)以及頁碼(如2,3,4),于是我們可以構建url參數如下:

# typeid是車型,page是頁碼
url = f'https://k.autohome.com.cn/{typeid}/index_{page}.html#dataList'

二、數據請求

通過簡單的測試,發現似乎不存在反爬,那就簡單了。

我們先引入需要用到的庫:

import requests
import pandas as pd
import html
from lxml import etree
import re

然后創建一個數據請求的函數備用:

# 獲取網頁數據(傳遞參數 車型typeid和頁碼數)
def get_html(typeid,page):
    # 組合出請求地址
    url = f'https://k.autohome.com.cn/{typeid}/index_{page}.html#dataList'
    # 請求數據(因為沒有反爬,這里沒有設置請求頭和其他參數)
    r = requests.get(url)
    # 請求的網頁數據中有網頁特殊字符,通過以下方法進行解析
    r = html.unescape(r.text)
    # 返回網頁數據
    return r

請求來的數據就是網頁html文本,我們接下來采用re解析出一共多少頁碼,再用xpath進行采集字段的解析。

三、數據解析

由于需要進行翻頁,這里我們可以先通過re正則表達式獲取總頁碼。通過查看網頁數據,我們發現總頁碼可以通過如下方式獲取:

try:
    pages = int(re.findall(r'共(\d+)頁',r)[0])
# 如果請求不到頁數,則表示該車型下沒有口碑數據
except :
    print(f'{name} 沒有數據!')
    continue

Python爬蟲中自動爬取某車之家各車銷售數據的示例分析

總頁碼采集

關于待采集字段信息,我們發現都在節點div[@class="mouthcon-cont-left"]里,可以先定位這個節點數據,然后再進行逐一解析。

Python爬蟲中自動爬取某車之家各車銷售數據的示例分析

待采集字段信息所在節點

此外,我們發現每一頁最多15個車型口碑數據,因此我們每頁可以定位15個待采集信息數據集,遍歷采集代碼:

divs = r_html.xpath('.//div[@class="mouthcon-cont-left"]')
# 遍歷每個全部的車輛銷售信息
for div in divs:
    # 找到車輛銷售信息所在的地方
    mt = div.xpath('./div[@class="choose-con mt-10"]')[0]
    # 找到所需字段
    infos = mt.xpath('./dl[@class="choose-dl"]')
    # 設置空的字典,用于存儲單個車輛信息
    item = {}
    # 遍歷車輛信息字段
    for info in infos:
        key = info.xpath('.//dt/text()')[0]
        # 當字段為購買車型時,進行拆分為車型和配置
        if key == '購買車型':
            item[key] = info.xpath('.//dd/a/text()')[0]
            item['購買配置'] = info.xpath('.//span[@class="font-arial"]/text()')[0]
        # 當字段為購車經銷商時,需要獲取經銷商的id參數,再調用api獲取其真實經銷商信息(這里有坑)
        elif key == '購車經銷商':
            # 經銷商id參數
            經銷商id = info.xpath('.//dd/a/@data-val')[0] +','+ info.xpath('.//dd/a/@data-evalid')[0]
            # 組合經銷商信息請求地址
            jxs_url = base_jxs_url+經銷商id+'|'
            # 請求數據(為json格式)
            data = requests.get(jxs_url)
            j = data.json()
            # 獲取經銷商名稱
            item[key] = j['result']['List'][0]['CompanySimple']
        else:
            # 其他字段時,替換轉義字符和空格等為空
            item[key] = info.xpath('.//dd/text()')[0].replace("\r\n","").replace(' ','').replace('\xa0','')

四、數據存儲

由于沒啥反爬,這里直接將采集到的數據轉化為pandas.DataFrame類型,然后存儲為xlsx文件即可。

df = pd.DataFrame(items)
df = df[['購買車型', '購買配置', '購買地點', '購車經銷商', '購買時間', '裸車購買價']]
# 數據存儲在本地
df.to_excel(r'車輛銷售信息.xlsx',index=None,sheet_name='data')

五、采集結果預覽

整個爬蟲過程比較簡單,采集下來的數據也比較規范,以本文案例奧迪Q5L示例如下:

Python爬蟲中自動爬取某車之家各車銷售數據的示例分析

以上是“Python爬蟲中自動爬取某車之家各車銷售數據的示例分析”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

临沭县| 白山市| 都兰县| 夏邑县| 郓城县| 长泰县| 柳林县| 疏勒县| 壤塘县| 辽阳县| 旺苍县| 汤原县| 凤庆县| 永安市| 白朗县| 盘锦市| 津市市| 米林县| 清原| 北票市| 上栗县| 新密市| 彭山县| 高邑县| 双辽市| 克什克腾旗| 陕西省| 隆昌县| 淮滨县| 苍南县| 永嘉县| 青河县| 云林县| 犍为县| 海安县| 绥德县| 万州区| 安平县| 湟中县| 太康县| 嘉峪关市|