91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python通過鏈接抓取網站的示例分析

發布時間:2021-06-28 15:05:49 來源:億速云 閱讀:358 作者:小新 欄目:開發技術

這篇文章主要介紹了python通過鏈接抓取網站的示例分析,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

這種爬蟲非常適用于從一個網站抓取所有數據的項目,而不適用于從特 定搜索結果或頁面列表抓取數據的項目。它還非常適用于網站頁面組織 得很糟糕或者非常分散的情況。

這些類型的爬蟲并不需要像上一節通過搜索頁面進行抓取中采用的定位 鏈接的結構化方法,因此在 Website 對象中不需要包含描述搜索頁面 的屬性。但是由于爬蟲并不知道待尋找的鏈接的位置,所以你需要一些 規則來告訴它選擇哪種頁面。你可以用 targetPattern(目標 URL 的 正則表達式)和布爾變量 absoluteUrl 來達成這一目標:

class Website:  
def __init__(self, name, url, targetPattern, absoluteUrl,    
titleTag, bodyTag):    
self.name = name    
self.url = url    
self.targetPattern = targetPattern    
self.absoluteUrl=absoluteUrl    
self.titleTag = titleTag    
self.bodyTag = bodyTag
class Content:  
def __init__(self, url, title, body):    
self.url = url    
self.title = title    
self.body = body
def print(self):    
print("URL: {}".format(self.url))    
print("TITLE: {}".format(self.title))    
print("BODY:\n{}".format(self.body))

Content 類和第一個爬蟲例子中使用的是一樣的。

Crawler 類從每個網站的主頁開始,定位內鏈,并解析在每個內鏈頁面 發現的內容:

import re
class Crawler:  
def __init__(self, site):    
self.site = site    
self.visited = []
def getPage(self, url):    
try:
req = requests.get(url)    
except requests.exceptions.RequestException:      
return None
return BeautifulSoup(req.text, 'html.parser')
def safeGet(self, pageObj, selector):
selectedElems = pageObj.select(selector)
if selectedElems is not None and len(selectedElems) > 0:
return '\n'.join([elem.get_text() for
elem in selectedElems])
return ''
def parse(self, url):
bs = self.getPage(url)
if bs is not None:
title = self.safeGet(bs, self.site.titleTag)
body = self.safeGet(bs, self.site.bodyTag)
if title != '' and body != '':
content = Content(url, title, body)
content.print()
def crawl(self):
"""
獲取網站主頁的頁面鏈接
"""
bs = self.getPage(self.site.url)
targetPages = bs.findAll('a',
href=re.compile(self.site.targetPattern))
for targetPage in targetPages:
targetPage = targetPage.attrs['href']
if targetPage not in self.visited:
self.visited.append(targetPage)
if not self.site.absoluteUrl:
targetPage = '{}{}'.format(self.site.url, targetPage)
self.parse(targetPage)
reuters = Website('Reuters', 'https://www.reuters.com', '^(/article/)', False,
'h2', 'div.StandardArticleBody_body_1gnLA') 
crawler = Crawler(reuters) 
crawler.crawl()

與前面的例子相比,這里的另外一個變化是:Website 對象(在這個例 子中是變量 reuters)是 Crawler 對象本身的一個屬性。這樣做的作 用是將已訪問過的頁面存儲在爬蟲中,但是也意味著必須針對每個網站 實例化一個新的爬蟲,而不是重用一個爬蟲去抓取網站列表。

不管你是選擇一個與網站無關的爬蟲,還是將網站作為爬蟲的一個屬 性,這都是一個需要根據自身需求進行權衡的決定。兩種方法在功能實 現上都是沒有問題的。

另外需要注意的是,這個爬蟲會從主頁開始抓取,但是在所有頁面都被 記錄后,就不會繼續抓取了。你可能希望編寫一個爬蟲,將第 3 章中介 紹的某種模式融合進來,然后查看所訪問的每個頁面中更多的目標 URL。你甚至還可以跟蹤每個頁面中涉及的所有 URL(不僅僅是匹配 目標模式的 URL),然后查看這些 URL 是否包含目標模式。

感謝你能夠認真閱讀完這篇文章,希望小編分享的“python通過鏈接抓取網站的示例分析”這篇文章對大家有幫助,同時也希望大家多多支持億速云,關注億速云行業資訊頻道,更多相關知識等著你來學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

遂平县| 左贡县| 武川县| 新龙县| 新巴尔虎右旗| 陈巴尔虎旗| 阿拉善左旗| 汶川县| 高州市| 来凤县| 枞阳县| 靖宇县| 托克逊县| 拉萨市| 铜鼓县| 玛纳斯县| 通江县| 穆棱市| 什邡市| 庄河市| 全椒县| 蕲春县| 茂名市| 新宁县| 寻甸| 大洼县| 保定市| 化德县| 石渠县| 理塘县| 黄冈市| 开平市| 长寿区| 义马市| 常宁市| 胶州市| 雷州市| 桐庐县| 阿克| 广平县| 罗甸县|