91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

關于Scrapy框架下Spider類的簡介

發布時間:2020-08-04 09:47:04 來源:億速云 閱讀:110 作者:清晨 欄目:編程語言

這篇文章主要介紹關于Scrapy框架下Spider類的簡介,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

Spider類

Spider類定義了如何爬取某個(或某些)網站。包括了爬取的動作(例如:是否跟進鏈接)以及如何從網頁的內容中提取結構化數據(爬取item)。

換句話說,Spider就是您定義爬取的動作及分析某個網頁(或者是有些網頁)的地方。

class scrapy.Spider是最基本的類,所有編寫的爬蟲必須繼承這個類。

主要用到的函數及調用順序為:

__init__() : 初始化爬蟲名字和start_urls列表

start_requests() 調用make_requests_from url():生成Requests對象交給Scrapy下載并返回response

parse() : 解析response,并返回Item或Requests(需指定回調函數)。Item傳給Item pipline持久化 , 而Requests交由Scrapy下載,并由指定的回調函數處理(默認parse()),一直進行循環,直到處理完所有的數據為止。

源碼參考

#所有爬蟲的基類,用戶定義的爬蟲必須從這個類繼承
class Spider(object_ref):
    #定義spider名字的字符串(string)。spider的名字定義了Scrapy如何定位(并初始化)spider,所以其必須是唯一的。
    #name是spider最重要的屬性,而且是必須的。
    #一般做法是以該網站(domain)(加或不加 后綴 )來命名spider。 例如,如果spider爬取 mywebsite.com ,該spider
    通常會被命名為 mywebsite
    name = None
    #初始化,提取爬蟲名字,start_ruls
    def __init__(self, name=None, **kwargs):
        if name is not None:
            self.name = name
        # 如果爬蟲沒有名字,中斷后續操作則報錯
        elif not getattr(self, 'name', None):
            raise ValueError("%s must have a name" % type(self).__name__)
        # python 對象或類型通過內置成員__dict__來存儲成員信息
        self.__dict__.update(kwargs)
        #URL列表。當沒有指定的URL時,spider將從該列表中開始進行爬取。 因此,第一個被獲取到的頁面的URL
        將是該列表之一。 后續的URL將會從獲取到的數據中提取。
        if not hasattr(self, 'start_urls'):
            self.start_urls = []
    # 打印Scrapy執行后的log信息
    def log(self, message, level=log.DEBUG, **kw):
        log.msg(message, spider=self, level=level, **kw)
    # 判斷對象object的屬性是否存在,不存在做斷言處理
    def set_crawler(self, crawler):
        assert not hasattr(self, '_crawler'), "Spider already bounded to %s" % crawler
        self._crawler = crawler
    @property
    def crawler(self):
        assert hasattr(self, '_crawler'), "Spider not bounded to any crawler"
        return self._crawler
    @property
    def settings(self):
        return self.crawler.settings
    #該方法將讀取start_urls內的地址,并為每一個地址生成一個Request對象,交給Scrapy下載并返回Response
    #該方法僅調用一次
    def start_requests(self):
        for url in self.start_urls:
            yield self.make_requests_from_url(url)
    #start_requests()中調用,實際生成Request的函數。
    #Request對象默認的回調函數為parse(),提交的方式為get
    def make_requests_from_url(self, url):
        return Request(url, dont_filter=True)
    #默認的Request對象回調函數,處理返回的response。
    #生成Item或者Request對象。用戶必須實現這個類
    def parse(self, response):
        raise NotImplementedError
    @classmethod
    def handles_request(cls, request):
        return url_is_from_spider(request.url, cls)
    def __str__(self):
        return "<%s %r at 0x%0x>" % (type(self).__name__, self.name, id(self))
    __repr__ = __str__

主要屬性和方法

name
定義spider名字的字符串。
例如,如果spider爬取 mywebsite.com ,該spider通常會被命名為 mywebsite
allowed_domains
包含了spider允許爬取的域名(domain)的列表,可選。
start_urls
初始URL元祖/列表。當沒有制定特定的URL時,spider將從該列表中開始進行爬取。
start_requests(self)
該方法必須返回一個可迭代對象(iterable)。該對象包含了spider用于爬取(默認實現是使用 start_urls 的url)的第一個Request。
當spider啟動爬取并且未指定start_urls時,該方法被調用。
parse(self, response)
當請求url返回網頁沒有指定回調函數時,默認的Request對象回調函數。用來處理網頁返回的response,以及生成Item或者Request對象。

以上是關于Scrapy框架下Spider類的簡介的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

乌兰浩特市| 连州市| 华坪县| 余江县| 延安市| 民权县| 泰宁县| 东乌珠穆沁旗| 剑河县| 本溪市| 宜宾市| 漠河县| 酒泉市| 兴和县| 远安县| 三原县| 灵石县| 青田县| 全南县| 冕宁县| 土默特右旗| 宁波市| 宝应县| 海城市| 读书| 柯坪县| 萨迦县| 安多县| 石屏县| 六枝特区| 大英县| 泌阳县| 绥芬河市| 松桃| 淳化县| 恩施市| 南宫市| 锦屏县| 江西省| 治多县| 松江区|