91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

js混淆爬蟲天氣網的方法是什么

發布時間:2021-12-29 10:09:06 來源:億速云 閱讀:169 作者:iii 欄目:大數據

本篇內容介紹了“js混淆爬蟲天氣網的方法是什么”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

混淆加密網站

 今天在爬取污染物時遇到下面網站,總的來說碰到了兩大方面的爬蟲難題。(混淆加密和debug檢測)。

待爬取的網站 js混淆爬蟲天氣網的方法是什么

數據獲取

  1. 一開始就遇到右鍵禁用,debug檢測。 js混淆爬蟲天氣網的方法是什么

    沒辦法,ctrl+s,直接把網站保存到了本地。

  2. 這樣可以f12了,找到主頁面,一通找,找到了ajax請求的代碼。 js混淆爬蟲天氣網的方法是什么

    傳入城市、月份,然后調js中的方法,接著ctrl+shift+f,全局搜索這玩意。 js混淆爬蟲天氣網的方法是什么

  3. 復制到本地一看,好么,js混淆,找了個反混淆js。 js混淆爬蟲天氣網的方法是什么

  4. 復制到本地,一通ctrl+c,終于找到下列代碼,一看邏輯,先加密傳入的參數,在post請求,獲取加密后的結果,在解密結果。 js混淆爬蟲天氣網的方法是什么

  5. 理清思路,終于可以寫代碼了。

  6. 注意一下,每個人的加密參數(或者隔一段時間)不一樣,所以大家復制我的不一定后面能跑,自己可以使用這套路獲取自己的js。 js混淆爬蟲天氣網的方法是什么

python代碼

# -*- coding: utf-8 -*-
import execjs
import json
import requests
import datetime


class pollutionSpider:
    """
    爬取https://www.aqistudy.cn/historydata/daydata.php 污染物數據
    """

    def __init__(self):
        self.js_path = "../data/aqistudy.js"
        self.main_url = 'https://www.aqistudy.cn/historydata/api/historyapi.php'
        self.month_data = {"1": "01", "2": "02", "3": "03", "4": "04", "5": "05", "6": "06", "7": "07", "8": "08",
                           "9": "09", "10": "10", "11": "11", "12": "12"}
        self.save_path = "../data/weather/"
        self.headers = {
            'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
            'Accept-Encoding': 'gzip, deflate',
            'Accept-Language': 'zh-CN,zh;q=0.8',
            'Content-Type': 'application/x-www-form-urlencoded',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) '
                          'Chrome/71.0.3578.80 Safari/537.36 '
        }
        self.data_headers = "time_point	aqi	pm2_5	pm10	so2	no2	co	o3	rank	quality"

    def encrypt(self, city, month):
        """
        加密信息
        """
        js_str = self.get_js()
        ctx = execjs.compile(js_str)  # 加載JS文件
        return ctx.call('pLoXOmdsuMMq', "GETDAYDATA", {"city": city, "month": month})

    def decrypt(self, data):
        """
        解密信息
        """
        ctx = execjs.compile(self.get_js())  # 加載JS文件
        return ctx.call('dSMkMq14l49Opc37Yx', data)

    def get_js(self):
        """
        獲取js
        """
        f = open(self.js_path, 'r', encoding='utf-8')  # 打開JS文件
        line = f.readline()
        html_str = ''
        while line:
            html_str = html_str + line
            line = f.readline()
        return html_str

    def get_response(self, params):
        """
        請求數據
        """
        return requests.post(self.main_url, data={'hzbDyDmL0': params}, headers=self.headers).text

    def get_single(self, city, month):
        """
        獲取一個城市某個月的數據
        """
        encrypt_data = self.get_response(self.encrypt(city, month))
        data = json.loads(self.decrypt(encrypt_data))['result']['data']['items']
        result = ['\t'.join([str(value) for key, value in element.items()]) for element in data]
        return result

    def get_all(self, city, start_day):
        """
        獲取一個城市污染數據
        """
        print("開始獲取" + city + "數據------------------------")
        start_day = datetime.datetime.strptime(start_day, "%Y-%m-%d")
        end_day = datetime.datetime.now()
        months = (end_day.year - start_day.year) * 12 + end_day.month - start_day.month
        month_range = ['%s%s' % (start_day.year + mon // 12, self.month_data[str(mon % 12 + 1)]) for mon in
                       range(start_day.month - 1, start_day.month + months)]
        f = open(self.save_path + city + ".txt", "w", encoding="utf8")
        f.write(self.data_headers + "\n")
        for element in month_range:
            try:
                data = self.get_single(city, element)
                for line in data:
                    f.write(line + "\n")
                print(element + city + "數據獲取------------------------成功")
            except Exception as e:
                print(e)
                print(element + city + "數據獲取------------------------失敗")
        f.close()


if __name__ == '__main__':
    pollutionSpider().get_all("上海", "2015-1-1")

結果

js混淆爬蟲天氣網的方法是什么

“js混淆爬蟲天氣網的方法是什么”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

js
AI

苗栗市| 钦州市| 昆明市| 阳春市| 屯昌县| 盘锦市| 屏东市| 五华县| 隆尧县| 高台县| 郯城县| 丁青县| 五大连池市| 英山县| 乐至县| 塔河县| 周口市| 城步| 日照市| 巴塘县| 八宿县| 巴马| 西安市| 彭水| 鄯善县| 西青区| 东丰县| 卓资县| 大同县| 吉木萨尔县| 疏附县| 安达市| 花莲市| 诸城市| 嵊州市| 望都县| 绵阳市| 乌审旗| 达孜县| 临猗县| 即墨市|