您好,登錄后才能下訂單哦!
小編給大家分享一下python實現網絡爬蟲的案例,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!
python實現網絡爬蟲的方法:1、使用request庫中的get方法,請求url的網頁內容;2、【find()】和【find_all()】方法可以遍歷這個html文件,提取指定信息。
python實現網絡爬蟲的方法:
第一步:爬取
使用request庫中的get方法,請求url的網頁內容
編寫代碼
[root@localhost demo]# touch demo.py [root@localhost demo]# vim demo.py
#web爬蟲學習 -- 分析 #獲取頁面信息 #輸入:url #處理:request庫函數獲取頁面信息,并將網頁內容轉換成為人能看懂的編碼格式 #輸出:爬取到的內容 import requests def getHTMLText(url): try: r = requests.get( url, timeout=30 ) r.raise_for_status() #如果狀態碼不是200,產生異常 r.encoding = 'utf-8' #字符編碼格式改成 utf-8 return r.text except: #異常處理 return " error " url = "http://www.baidu.com" print( getHTMLText(url) )
[root@localhost demo]# python3 demo.py
第二步:分析
使用bs4庫中BeautifulSoup類,生成一個對象。find()和find_all()方法可以遍歷這個html文件,提取指定信息。
編寫代碼
[root@localhost demo]# touch demo1.py [root@localhost demo]# vim demo1.py #web爬蟲學習 -- 分析 #獲取頁面信息 #輸入:url #處理:request庫獲取頁面信息,并從爬取到的內容中提取關鍵信息 #輸出:打印輸出提取到的關鍵信息 import requests from bs4 import BeautifulSoup import re def getHTMLText(url): try: r = requests.get( url, timeout=30 ) r.raise_for_status() #如果狀態碼不是200,產生異常 r.encoding = 'utf-8' #字符編碼格式改成 utf-8 return r.text except: #異常處理 return " error " def findHTMLText(text): soup = BeautifulSoup( text, "html.parser" ) #返回BeautifulSoup對象 return soup.find_all(string=re.compile( '百度' )) #結合正則表達式,實現字符串片段匹配 url = "http://www.baidu.com" text = getHTMLText(url) #獲取html文本內容 res = findHTMLText(text) #匹配結果 print(res) #打印輸出
[root@localhost demo]# python3 demo1.py
看完了這篇文章,相信你對python實現網絡爬蟲的案例有了一定的了解,想了解更多相關知識,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。