您好,登錄后才能下訂單哦!
這篇文章將為大家詳細講解有關如何用Python采集騰訊招聘數據,文章內容質量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關知識有一定的了解。
今天我們爬取騰訊招聘網站Python崗位的招聘信息。如圖所示:
然后還是先看一下最終的結果,我們保存到csv文件中。
爬取1000條數據,第一行是title:
老規矩,我們還是走流程。
抓取騰訊招聘網站Python相關崗位數據,打開目標網站,F12打開開發者工具,發現崗位信息不在網頁源碼中,很明顯是在XHR中的json數據。
正好對應頁面十條數據,接下來就好辦了。
找到url的頁面規律,
第一頁url:https://careers.tencent.com/tencentcareer/api/post/Query?timestamp=1620561777984&countryId=&cityId=&bgIds=&productId=&categoryId=&parentCategoryId=&attrId=&keyword=python&pageIndex=1&pageSize=10&language=zh-cn&area=cn
index參數對應值即為頁碼,所以循環得到url鏈。
def getPage(self): url_list = [] for i in range(100): url = self.url.format(i + 1) url_list.append(url) return url_list
得到url鏈之后我們循環遍歷發起請求,得到json數據,將json數據轉換成字典,并解析數據。
for url in urlList: resp = requests.get(url, headers=self.headers) data = resp.content.decode('utf-8') dic_data = json.loads(data) dic_data_list = dic_data["Data"]["Posts"] for i in dic_data_list: work_list.append(i)
這樣就得到了崗位信息數據。
得到了崗位數據之后我們需要把它保存到本地,這里我們把數據保存到本地csv文件中。
try: with open('Tx_work.csv', 'w', encoding='utf-8', newline='') as f: writer = csv.DictWriter(f, self.title) writer.writeheader() writer.writerows(dic) print('寫入成功') except Exception as e: print(e)
if __name__ == '__main__': tx = Tx(base_url,hd,titles) tx.run()
關于如何用Python采集騰訊招聘數據就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。