您好,登錄后才能下訂單哦!
這篇文章主要介紹Python爬蟲中如何抓取名人名言網站,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!
1、輸入網址
quotes.toscrape.com/,進入網站首頁,觀察網頁的結構,我們發現網頁的內容很清晰,
主要分為:名人名言,作者,標簽三個主要字段,同時三個字段的內容為本次提取的內容。
2、確定需求,分析網頁結構
打開開發者工具,點擊networ進行網絡數據抓包分析,網站是以get方式進行請求,不需要攜帶參數,那我們就可以以request請求庫中的get()方法,進行模擬請求,需要帶上headers請求,模擬瀏覽器信息驗證,防止被網站服務器檢測為爬蟲請求。
也可以點擊開發者工具的最左邊小箭頭,可以幫助我們快速定位,網頁數據在element標簽頁所在的位置。
3、解析網頁結構,提取數據。
請求成功之后,可以開始提取數據啦~,我用的是xpath的解析方法,所以,先來解析xpath頁面,點擊最左邊小箭頭,可以幫助我們快速定位數據所,網頁數據在element標簽頁所在的位置.因為網頁的請求方式數據以列表的方式逐條排序,所以我們可以先定位整個列表的數據。在通過lxm中html解析器,逐個字段抓取并保存至列表,方便下一步的數據清洗。
4、保存至csv文件
源碼分享
import requests from lxml import etree import csv url = "https://quotes.toscrape.com/" headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.212 Safari/537.36' } res = requests.get(url,headers = headers).text html = etree.HTML(res) queto_list = html.xpath('//div[@class="col-md-8"]') lists = [] for queto in queto_list: # 名言正文 title = queto.xpath('./div[@class="quote"]/span[1]/text()') # 作者 authuor = queto.xpath('./div[@class="quote"]/span[2]/small/text()') # 名言標簽 tags = queto.xpath('./div[@class="quote"]/div[@class="tags"]/a[@class="tag"]/text()') # 將數據統一添加進列表中保存 lists.append(title) lists.append(authuor) lists.append(tags) with open("./名人名言.csv",'w',encoding='utf-8',newline='\n') as f: writer = csv.writer(f) for i in lists: writer.writerow(x)
以上是“Python爬蟲中如何抓取名人名言網站”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。