91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么用Python爬蟲公眾號文章和鏈接

發布時間:2021-11-19 13:35:46 來源:億速云 閱讀:422 作者:iii 欄目:編程語言

這篇文章主要講解了“怎么用Python爬蟲公眾號文章和鏈接”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“怎么用Python爬蟲公眾號文章和鏈接”吧!

抓包

我們需要通過抓包提取公眾號文章的請求的 URL,參考之前寫過的一篇抓包的文章 Python爬蟲APP前的準備,pk哥這次直接抓取 PC  端微信的公眾號文章列表信息,更簡單。

我以抓包工具 Charles 為例,勾選容許抓取電腦的請求,一般是默認就勾選的。

怎么用Python爬蟲公眾號文章和鏈接

為了過濾掉其他無關請求,我們在左下方設置下我們要抓取的域名。

怎么用Python爬蟲公眾號文章和鏈接

打開 PC 端微信,打開 「Python知識圈」公眾號文章列表后,Charles 就會抓取到大量的請求,找到我們需要的請求,返回的 JSON  信息里包含了文章的標題、摘要、鏈接等信息,都在 comm_msg_info 下面。

怎么用Python爬蟲公眾號文章和鏈接

怎么用Python爬蟲公眾號文章和鏈接

這些都是請求鏈接后的返回,請求鏈接 url 我們可以在 Overview 中查看。

怎么用Python爬蟲公眾號文章和鏈接

通過抓包獲取了這么多信息后,我們可以寫爬蟲爬取所有文章的信息并保存了。

初始化函數

公眾號歷史文章列表向上滑動,加載更多文章后發現鏈接中變化的只有 offset 這個參數,我們創建一個初始化函數,加入代理 IP,請求頭和信息,請求頭包含了  User-Agent、Cookie、Referer。

怎么用Python爬蟲公眾號文章和鏈接

這些信息都在抓包工具可以看到。

怎么用Python爬蟲公眾號文章和鏈接

請求數據

通過抓包分析出來了請求鏈接,我們就可以用 requests 庫來請求了,用返回碼是否為 200 做一個判斷,200  的話說明返回信息正常,我們再構建一個函數 parse_data() 來解析提取我們需要的返回信息。

def request_data(self):     try:         response = requests.get(self.base_url.format(self.offset), headers=self.headers, proxies=self.proxy)         print(self.base_url.format(self.offset))         if 200 == response.status_code:            self.parse_data(response.text)     except Exception as e:         print(e)         time.sleep(2)         pass

提取數據

通過分析返回的 Json 數據,我們可以看到,我們需要的數據都在 app_msg_ext_info 下面。

怎么用Python爬蟲公眾號文章和鏈接

我們用 json.loads 解析返回的 Json 信息,把我們需要的列保存在 csv  文件中,有標題、摘要、文章鏈接三列信息,其他信息也可以自己加。

def parse_data(self, responseData):             all_datas = json.loads(responseData)             if 0 == all_datas['ret'] and all_datas['msg_count']>0:                 summy_datas = all_datas['general_msg_list']                 datas = json.loads(summy_datas)['list']                 a = []                 for data in datas:                     try:                         title = data['app_msg_ext_info']['title']                         title_child = data['app_msg_ext_info']['digest']                         article_url = data['app_msg_ext_info']['content_url']                         info = {}                         info['標題'] = title                         info['小標題'] = title_child                         info['文章鏈接'] = article_url                         a.append(info)                     except Exception as e:                         print(e)                         continue                  print('正在寫入文件')                 with open('Python公眾號文章合集1.csv', 'a', newline='', encoding='utf-8') as f:                     fieldnames = ['標題', '小標題', '文章鏈接']  # 控制列的順序                     writer = csv.DictWriter(f, fieldnames=fieldnames)                     writer.writeheader()                     writer.writerows(a)                     print("寫入成功")                  print('----------------------------------------')                 time.sleep(int(format(random.randint(2, 5))))                 self.offset = self.offset+10                 self.request_data()             else:                 print('抓取數據完畢!')

這樣,爬取的結果就會以 csv 格式保存起來。

運行代碼時,可能會遇到 SSLError 的報錯,最快的解決辦法就是 base_url 前面的 https 去掉 s 再運行。

保存markdown格式的鏈接

經常寫文章的人應該都知道,一般寫文字都會用 Markdown 的格式來寫文章,這樣的話,不管放在哪個平臺,文章的格式都不會變化。

在 Markdown 格式里,用 [文章標題](文章url鏈接) 表示,所以我們保存信息時再加一列信息就行,標題和文章鏈接都獲取了,Markdown  格式的 url 也就簡單了。

md_url = '[{}]'.format(title) + '({})'.format(article_url)

爬取完成后,效果如下。

怎么用Python爬蟲公眾號文章和鏈接

我們把 md鏈接這一列全部粘貼到 Markdown 格式的筆記里就行了,大部分的筆記軟件都知道新建 Markdown 格式的文件的。

怎么用Python爬蟲公眾號文章和鏈接

感謝各位的閱讀,以上就是“怎么用Python爬蟲公眾號文章和鏈接”的內容了,經過本文的學習后,相信大家對怎么用Python爬蟲公眾號文章和鏈接這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

东兰县| 中山市| 锡林浩特市| 苍山县| 云浮市| 黔江区| 河池市| 福海县| 交城县| 驻马店市| 桐城市| 蓝山县| 余干县| 马关县| 乐陵市| 沾化县| 登封市| 遂平县| 溧水县| 夏邑县| 墨脱县| 阳山县| 昆明市| 莎车县| 独山县| 当涂县| 安泽县| 湟源县| 望江县| 辛集市| 子长县| 监利县| 合阳县| 潮安县| 双鸭山市| 北京市| 彭州市| 邢台市| 平舆县| 凤翔县| 桓仁|