您好,登錄后才能下訂單哦!
本文研究的主要是Python使用requests及BeautifulSoup構建一個網絡爬蟲,具體步驟如下。
功能說明
在Python下面可使用requests模塊請求某個url獲取響應的html文件,接著使用BeautifulSoup解析某個html。
案例
假設我要http://maoyan.com/board/4貓眼電影的top100電影的相關信息,如下截圖:
獲取電影的標題及url。
安裝requests和BeautifulSoup
使用pip工具安裝這兩個工具。
pip install requests
pip install beautifulsoup4
程序
__author__ = 'Qian Yang' # -*- coding:utf-8 -*- import requests from bs4 import BeautifulSoup def get_one_page(url): response= requests.get(url) if response.status_code == 200: return response.content.decode("utf8","ignore").encode("gbk","ignore") #采用BeautifulSoup解析 def bs4_paraser(html): all_value = [] value = {} soup = BeautifulSoup(html,'html.parser') # 獲取每一個電影 all_div_item = soup.find_all('div', attrs={'class': 'movie-item-info'}) for r in all_div_item: # 獲取電影的名稱和url title = r.find_all(name="p",attrs={"class":"name"})[0].string movie_url = r.find_all('p', attrs={'class': 'name'})[0].a['href'] value['title'] = title value['movie_url'] = movie_url all_value.append(value) value = {} return all_value def main(): url = 'http://maoyan.com/board/4' html = get_one_page(url) all_value = bs4_paraser(html) print(all_value) if __name__ == '__main__': main()
代碼測試可用,實現效果:
總結
以上就是本文關于Python使用requests及BeautifulSoup構建爬蟲實例代碼的全部內容,希望對大家有所幫助。感興趣的朋友可以繼續參閱本站其他相關專題,如有不足之處,歡迎留言指出。感謝朋友們對本站的支持!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。