您好,登錄后才能下訂單哦!
本篇內容介紹了“js混淆爬蟲天氣網的方法是什么”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
今天在爬取污染物時遇到下面網站,總的來說碰到了兩大方面的爬蟲難題。(混淆加密和debug檢測)。
待爬取的網站
一開始就遇到右鍵禁用,debug檢測。
沒辦法,ctrl+s,直接把網站保存到了本地。
這樣可以f12了,找到主頁面,一通找,找到了ajax請求的代碼。
傳入城市、月份,然后調js中的方法,接著ctrl+shift+f,全局搜索這玩意。
復制到本地一看,好么,js混淆,找了個反混淆js。
復制到本地,一通ctrl+c,終于找到下列代碼,一看邏輯,先加密傳入的參數,在post請求,獲取加密后的結果,在解密結果。
理清思路,終于可以寫代碼了。
注意一下,每個人的加密參數(或者隔一段時間)不一樣,所以大家復制我的不一定后面能跑,自己可以使用這套路獲取自己的js。
# -*- coding: utf-8 -*- import execjs import json import requests import datetime class pollutionSpider: """ 爬取https://www.aqistudy.cn/historydata/daydata.php 污染物數據 """ def __init__(self): self.js_path = "../data/aqistudy.js" self.main_url = 'https://www.aqistudy.cn/historydata/api/historyapi.php' self.month_data = {"1": "01", "2": "02", "3": "03", "4": "04", "5": "05", "6": "06", "7": "07", "8": "08", "9": "09", "10": "10", "11": "11", "12": "12"} self.save_path = "../data/weather/" self.headers = { 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8', 'Accept-Encoding': 'gzip, deflate', 'Accept-Language': 'zh-CN,zh;q=0.8', 'Content-Type': 'application/x-www-form-urlencoded', 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ' 'Chrome/71.0.3578.80 Safari/537.36 ' } self.data_headers = "time_point aqi pm2_5 pm10 so2 no2 co o3 rank quality" def encrypt(self, city, month): """ 加密信息 """ js_str = self.get_js() ctx = execjs.compile(js_str) # 加載JS文件 return ctx.call('pLoXOmdsuMMq', "GETDAYDATA", {"city": city, "month": month}) def decrypt(self, data): """ 解密信息 """ ctx = execjs.compile(self.get_js()) # 加載JS文件 return ctx.call('dSMkMq14l49Opc37Yx', data) def get_js(self): """ 獲取js """ f = open(self.js_path, 'r', encoding='utf-8') # 打開JS文件 line = f.readline() html_str = '' while line: html_str = html_str + line line = f.readline() return html_str def get_response(self, params): """ 請求數據 """ return requests.post(self.main_url, data={'hzbDyDmL0': params}, headers=self.headers).text def get_single(self, city, month): """ 獲取一個城市某個月的數據 """ encrypt_data = self.get_response(self.encrypt(city, month)) data = json.loads(self.decrypt(encrypt_data))['result']['data']['items'] result = ['\t'.join([str(value) for key, value in element.items()]) for element in data] return result def get_all(self, city, start_day): """ 獲取一個城市污染數據 """ print("開始獲取" + city + "數據------------------------") start_day = datetime.datetime.strptime(start_day, "%Y-%m-%d") end_day = datetime.datetime.now() months = (end_day.year - start_day.year) * 12 + end_day.month - start_day.month month_range = ['%s%s' % (start_day.year + mon // 12, self.month_data[str(mon % 12 + 1)]) for mon in range(start_day.month - 1, start_day.month + months)] f = open(self.save_path + city + ".txt", "w", encoding="utf8") f.write(self.data_headers + "\n") for element in month_range: try: data = self.get_single(city, element) for line in data: f.write(line + "\n") print(element + city + "數據獲取------------------------成功") except Exception as e: print(e) print(element + city + "數據獲取------------------------失敗") f.close() if __name__ == '__main__': pollutionSpider().get_all("上海", "2015-1-1")
“js混淆爬蟲天氣網的方法是什么”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。