91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python自動化開發學習-TinyScrapy

發布時間:2020-08-07 10:30:29 來源:網絡 閱讀:353 作者:騎士救兵 欄目:編程語言

這里通過代碼一步一步的演變,最后完成的是一個精簡的Scrapy。在Scrapy內部,基本的流程就是這么實現的。主要是為了能通過學習了解Scrapy大致的流程,對之后再要去看Scrapy的源碼也是有幫助的。

Twisted使用

因為Scrapy是基于Twisted實現的,所以先看Twisted怎么用

基本使用

基本使用的示例:

from twisted.web.client import getPage, defer
from twisted.internet import reactor

# 所有任務完成后的回調函數
def all_done(arg):
    """所有爬蟲執行完后執行,循環終止"""
    print("All Done")
    reactor.stop()

# 單個任務的回調函數
def callback(contents):
    """每個爬蟲獲取到結果后執行"""
    print(contents)

deferred_list = []

url_list = [
    'http://www.bing.com',
    'http://www.baidu.com',
    'http://edu.51cto.com',
]

for url in url_list:
    deferred = getPage(bytes(url, encoding='utf-8'))
    deferred.addCallback(callback)
    deferred_list.append(deferred)

dlist = defer.DeferredList(deferred_list)
dlist.addBoth(all_done)

if __name__ == '__main__':
    reactor.run()

在for循環里,創建了對象,還給對象加了回調函數,這是單個任務完成后執行的。此時還沒有進行下載,而是把所有的對象加到一個列表里。
之后的defer.DeferredList的調用,才是執行所有的任務。并且又加了一個回調函數all_done,這個是所有任務都完成后才執行的。

基于裝飾器1

基于裝飾器也可以實現,下面的代碼是基于上面的示例做了簡單的轉換:

from twisted.web.client import getPage, defer
from twisted.internet import reactor

def all_done(arg):
    print("All Done")
    reactor.stop()

def one_done(response):
    print(response)

@defer.inlineCallbacks
def task(url):
    deferred = getPage(bytes(url, encoding='utf-8'))
    deferred.addCallback(one_done)
    yield deferred

deferred_list = []

url_list = [
    'http://www.bing.com',
    'http://www.baidu.com',
    'http://edu.51cto.com',
]

for url in url_list:
    deferred = task(url)
    deferred_list.append(deferred)

dlist = defer.DeferredList(deferred_list)
dlist.addBoth(all_done)

if __name__ == '__main__':
    reactor.run()

把原來for循環里的2行代碼封裝的了一個task函數里,并且加了裝飾器。
這個task函數有3個要素:裝飾器、deferred對象、通過yield返回返回對象。這個是Twisted里標準的寫法。

基于裝飾器2

在上面的示例的基礎上,把整個for循環都移到task函數里了:

from twisted.web.client import getPage, defer
from twisted.internet import reactor

def all_done(arg):
    print("All Done")
    reactor.stop()

def one_done(response):
    print(response)

@defer.inlineCallbacks
def task():
    for url in url_list:
        deferred = getPage(bytes(url, encoding='utf-8'))
        deferred.addCallback(one_done)
        yield deferred

url_list = [
    'http://www.bing.com',
    'http://www.baidu.com',
    'http://edu.51cto.com',
]

ret = task()
ret.addBoth(all_done)

if __name__ == '__main__':
    reactor.run()

上面說個的3要素:裝飾器、deferred對象、yield都有。

基于裝飾器永不退出

在前面的示例中,每完成一個任務,就會返回并執行一個回調函數one_done。所有任務如果都返回了,程序就會退出(退出前會執行回調函數all_done)。
這里所做的,就是添加一個不會返回的任務,這樣程序的一直不會退出了:

from twisted.web.client import getPage, defer
from twisted.internet import reactor

def all_done(arg):
    print("All Done")
    reactor.stop()

def one_done(response):
    print(response)

@defer.inlineCallbacks
def task():
    for url in url_list:
        deferred = getPage(bytes(url, encoding='utf-8'))
        deferred.addCallback(one_done)
        yield deferred
    # 下面的這個任務永遠不會完成
    stop_deferred = defer.Deferred()  # 這是一個空任務,不會去下載,所以永遠不會返回
    # stop_deferred.callback(None)  # 執行這句可以讓這個任務返回
    stop_deferred.addCallback(lambda s: print(s))
    stop_deferred.callback("stop_deferred")
    yield stop_deferred

url_list = [
    'http://www.bing.com',
    'http://www.baidu.com',
    'http://edu.51cto.com',
]

ret = task()
ret.addBoth(all_done)

if __name__ == '__main__':
    reactor.run()

這里的做法,就是加了一個額外的任務。要求返回的是Deferred對象,這里就創建了一個空的Deferred對象,并把這個對象返回。
在這里,我們并沒有讓這個空的Deferred對象去下載,所以也就永遠不會有返回。
永不退出的意義
這里目的就是不讓程序退出,讓這個事件循環一直在那里執行。之后還可以繼續往里面添加任務,然后執行新的任務。
程序退出的方法
還是可以讓程序退出的。就是調用stop_deferred的callback方法,在上面的代碼里注釋掉了。執行這個方法,就是強制執行該任務的回調函數。
之前都是等任務執行完返回后,會自動調用callback方法,這里就是強制調用了。
并且由于代碼里沒有為stop_deferred指定回調函數,所有調用方法后不會執行任何函數。不過調用callback方法必須有一個參數,這里隨便寫個就好了。
也可以給stop_deferred加一個回調函數,然后再調用callback方法:

stop_deferred.addCallback(lambda s: print(s))
stop_deferred.callback("stop_deferred")

Scrapy里的做法
這就是Scrapy里運行完終止的邏輯。第一次只有一個url,執行完就返回了,并且此時應該是所有任務都返回了,那么就會退出程序。
在Scrapy里,也是這樣加了一個永遠不會返回的任務,不讓程序退出。然后之前的結果返回后,又會生成新的任務到調度器,這樣就會動態的添加任務繼續執行。
要讓程序可以退出,這里還需要做一個檢測。在下載完成之后的回調函數里,會生成新的任務繼續給執行。這里可以執行2個回調函數。
第一個回調函數就是生成新的任務放入調度器,第二個回調函數就是檢測等待執行的任務的數量,以及正在執行的任務數量。如果都是0,表示程序可以結束了。
程序結束的方法就是上面的用的調用執行callback方法。

執行完畢后停止事件循環

基于上面的說的,這里的代碼實現了全部任務執行完畢后可以調用stop_deferred的callback方法來退出:

from twisted.web.client import getPage, defer
from twisted.internet import reactor

task_list = []
stop_deferred = None

def all_done(arg):
    print("All Done")
    reactor.stop()

def one_done(response):
    print(response)

def check_empty(response, *args, **kw):
    url = kw.get('url')
    if url in running_list:
        running_list.remove(url)
    if not running_list:
        stop_deferred.callback()

@defer.inlineCallbacks
def task():
    global running_list, stop_deferred  # 全局變量
    running_list = url_list.copy()
    for url in url_list:
        deferred = getPage(bytes(url, encoding='utf-8'))
        deferred.addCallback(one_done)
        deferred.addCallback(check_empty, url=url)
        yield deferred
    stop_deferred = defer.Deferred()
    yield stop_deferred

url_list = [
    'http://www.bing.com',
    'http://www.baidu.com',
    'http://edu.51cto.com',
]

ret = task()
ret.addBoth(all_done)

if __name__ == '__main__':
    reactor.run()

代碼優化

上面的代碼功能上都實現了,但是實現方法有點不太好。
首先,task函數里分成了兩部分,一部分是我們自己調度的任務,一部分是為了不讓程序退出,而加的一個空任務。可以把這兩部分拆開放在兩個函數里。分拆之后,只有第一部分的函數是需要留給用戶使用的。下面是把原來的task函數分拆后的代碼,并且每個函數也都需要加上裝飾器:

from twisted.web.client import getPage, defer
from twisted.internet import reactor

task_list = []
stop_deferred = None

def all_done(arg):
    print("All Done")
    reactor.stop()

def one_done(response):
    print(response)

def check_empty(response, url):
    if url in running_list:
        running_list.remove(url)
    if not running_list:
        stop_deferred.callback()

@defer.inlineCallbacks
def open_spider():
    global running_list
    running_list = url_list.copy()
    for url in url_list:
        deferred = getPage(bytes(url, encoding='utf-8'))
        deferred.addCallback(one_done)
        deferred.addCallback(check_empty, url)
        yield deferred

@defer.inlineCallbacks
def stop():
    global stop_deferred
    stop_deferred = defer.Deferred()
    yield stop_deferred

@defer.inlineCallbacks
def task():
    yield open_spider()
    yield stop()

url_list = [
    'http://www.bing.com',
    'http://www.baidu.com',
    'http://edu.51cto.com',
]

ret = task()
ret.addBoth(all_done)

if __name__ == '__main__':
    reactor.run()

另外還有全局變量的問題,這里的代碼使用了全部變量,這不是一個好的做法。再改下去需要引入class了。

模擬Scrapy

從這里開始,就要使用面向對象的方法,進一步進行封裝了。

封裝部分

先把之前主要的代碼封裝到類里:

from twisted.web.client import getPage, defer
from twisted.internet import reactor
import queue

class Request(object):
    """封裝請求的url和回調函數"""
    def __init__(self, url, callback):
        self.url = url
        self.callback = callback

class Scheduler(object):
    """調度器"""
    def __init__(self, engine):
        self.engine = engine
        self.q = queue.Queue()

    def enqueue_request(self, request):
        """添加任務"""
        self.q.put(request)

    def next_request(self):
        """獲取下一個任務"""
        try:
            req = self.q.get(block=False)
        except queue.Empty:
            req = None
        return req

    def size(self):
        return self.q.qsize()

class ExecutionEngine(object):
    """引擎"""
    def __init__(self):
        self._close_wait = None  # stop_deferred
        self.start_requests = None
        self.scheduler = Scheduler(self)
        self.in_progress = set()  # 正在執行中的任務

    def _next_request(self):
        while self.start_requests:
            request = next(self.start_requests, None)
            if request:
                self.scheduler.enqueue_request(request)
            else:
                self.start_requests = None
        while len(self.in_progress) < 5 and self.scheduler.size() > 0:  # 最大編發為5
            request = self.scheduler.next_request()
            if not request:
                break
            self.in_progress.add(request)
            d = getPage(bytes(request.url, encoding='utf-8'))
            # addCallback是正確返回的時候執行,還有addErrback是返回有錯誤的時候執行
            # addBoth就是上面兩種情況返回都會執行
            d.addBoth(self._handle_downloader_output, request)
            d.addBoth(lambda x, req: self.in_progress.remove(req), request)
            d.addBoth(lambda x: self._next_request())
        if len(self.in_progress) == 0 and self.scheduler.size() == 0:
            self._close_wait.callback(None)

    def _handle_downloader_output(self, response, request):
        import types
        gen = request.callback(response)
        if isinstance(gen, types.GeneratorType):  # 是否為生成器類型
            for req in gen:
                # 這里還可以再加判斷,如果是request對象則繼續爬取
                # 如果是item對象,則可以交給pipline
                self.scheduler.enqueue_request(req)

    @defer.inlineCallbacks
    def open_spider(self, start_requests):
        self.start_requests = start_requests
        yield None
        reactor.callLater(0, self._next_request)  # 過多少秒之后,執行后面的函數

    @defer.inlineCallbacks
    def start(self):
        """原來的stop函數"""
        self._close_wait = defer.Deferred()
        yield self._close_wait

@defer.inlineCallbacks
def crawl(start_requests):
    """原來的task函數"""
    engine = ExecutionEngine()
    start_requests = iter(start_requests)
    yield engine.open_spider(start_requests)
    yield engine.start()

def all_done(arg):
    print("All Done")
    reactor.stop()

def one_done(response):
    print(response)

count = 0
def chouti(response):
    """任務返回后生成新的Request繼續交給調度器執行"""
    global count
    count += 1
    print(response)
    if count > 3:
        return None
    for i in range(10):
        yield Request("http://dig.chouti.com/all/hot/recent/%s" % i, lambda x: print(len(x)))

if __name__ == '__main__':
    url_list = [
        'http://www.bing.com',
        'https://www.baidu.com',
        'http://edu.51cto.com',
    ]
    requests = [Request(url, callback=one_done) for url in url_list]
    # requests = [Request(url, callback=chouti) for url in url_list]
    ret = crawl(requests)
    ret.addBoth(all_done)
    reactor.run()

這里還寫了一個回調函數chouti,可以在爬蟲返回后,生成新的Request繼續爬取。為了控制這個回調函數的調用,又加了一個全局變量。
接下來會對這部分函數繼續封裝,把所有的代碼都封裝到類里。
閉包解決全局變量
這里的部分是我自己嘗試的思考。
其實還可以通過閉包的方法。通過閉包來保存函數的狀態,而不使用全局變量:

def chouti2():
    n = 0

    def func(response):
        print(response)
        nonlocal n
        n += 1
        if n > 3:
            return None
        for i in range(10):
            yield Request("http://dig.chouti.com/all/hot/recent/%s" % i, lambda x: print(len(x)))
    return func

if __name__ == '__main__':
    url_list = [
        'http://www.bing.com',
        'https://www.baidu.com',
        'http://edu.51cto.com',
    ]
    # requests = [Request(url, callback=one_done) for url in url_list]
    # requests = [Request(url, callback=chouti) for url in url_list]
    callback = chouti2()
    requests = [Request(url, callback=callback) for url in url_list]
    ret = crawl(requests)
    ret.addBoth(all_done)
    reactor.run()

完全封裝

上面的示例還有幾個函數,繼續把剩下的函數也封裝到類里。下面的這個就是TinyScrapy

from twisted.web.client import getPage, defer
from twisted.internet import reactor
import queue

class Request(object):
    """封裝請求的url和回調函數"""
    def __init__(self, url, callback=None):
        self.url = url
        self.callback = callback  # 默認是None,則會去調用Spider對象的parse方法

class Scheduler(object):
    """調度器"""
    def __init__(self, engine):
        self.engine = engine
        self.q = queue.Queue()

    def enqueue_request(self, request):
        """添加任務"""
        self.q.put(request)

    def next_request(self):
        """獲取下一個任務"""
        try:
            req = self.q.get(block=False)
        except queue.Empty:
            req = None
        return req

    def size(self):
        return self.q.qsize()

class ExecutionEngine(object):
    """引擎"""
    def __init__(self):
        self._close_wait = None  # stop_deferred
        self.start_requests = None
        self.scheduler = Scheduler(self)
        self.in_progress = set()  # 正在執行中的任務
        self.spider = None  # 在open_spider方法里添加

    def _next_request(self):
        while self.start_requests:
            request = next(self.start_requests, None)
            if request:
                self.scheduler.enqueue_request(request)
            else:
                self.start_requests = None
        while len(self.in_progress) < 5 and self.scheduler.size() > 0:  # 最大編發為5
            request = self.scheduler.next_request()
            if not request:
                break
            self.in_progress.add(request)
            d = getPage(bytes(request.url, encoding='utf-8'))
            # addCallback是正確返回的時候執行,還有addErrback是返回有錯誤的時候執行
            # addBoth就是上面兩種情況返回都會執行
            d.addBoth(self._handle_downloader_output, request)
            d.addBoth(lambda x, req: self.in_progress.remove(req), request)
            d.addBoth(lambda x: self._next_request())
        if len(self.in_progress) == 0 and self.scheduler.size() == 0:
            self._close_wait.callback(None)

    # 這個方法和之前的有一點小的變化,主要是用到了新定義的Response對象
    def _handle_downloader_output(self, body, request):
        import types
        response = Response(body, request)
        # 如果沒有指定callback就調用Spider類的parse方法
        func = request.callback or self.spider.parse
        gen = func(response)
        if isinstance(gen, types.GeneratorType):  # 是否為生成器類型
            for req in gen:
                # 這里還可以再加判斷,如果是request對象則繼續爬取
                # 如果是item對象,則可以交給pipline
                self.scheduler.enqueue_request(req)

    @defer.inlineCallbacks
    def open_spider(self, spider, start_requests):
        self.start_requests = start_requests
        self.spider = spider  # 加了這句
        yield None
        reactor.callLater(0, self._next_request)  # 過多少秒之后,執行后面的函數

    @defer.inlineCallbacks
    def start(self):
        """原來的stop函數"""
        self._close_wait = defer.Deferred()
        yield self._close_wait

class Response(object):
    def __init__(self, body, request):
        self.body = body
        self.request = request
        self.url = request.url

    @property
    def text(self):
        return self.body.decode('utf-8')

class Crawler(object):
    def __init__(self, spider_cls):
        self.spider_cls = spider_cls
        self.spider = None
        self.engine = None

    @defer.inlineCallbacks
    def crawl(self):
        self.engine = ExecutionEngine()
        self.spider = self.spider_cls()
        start_requests = iter(self.spider.start_requests())
        yield self.engine.open_spider(self.spider, start_requests)
        yield self.engine.start()

class CrawlerProcess(object):
    def __init__(self):
        self._active = set()
        self.crawlers = set()

    def crawl(self, spider_cls, *args, **kwargs):
        crawler = Crawler(spider_cls)
        self.crawlers.add(crawler)
        d = crawler.crawl(*args, **kwargs)
        self._active.add(d)
        return d

    def start(self):
        dl = defer.DeferredList(self._active)
        dl.addBoth(self._stop_reactor)
        reactor.run()

    @classmethod
    def _stop_reactor(cls, _=None):
        """原來的all_done函數
        之前的示例中,這個函數都是要接收一個參數的。
        雖然不用,但是調用的模塊一定會傳過來,所以一定要接收一下。
        這里就用了占位符來接收這個參數,并且設置了默認值None。
        """
        print("All Done")
        reactor.stop()

class Spider(object):
    def __init__(self):
        if not hasattr(self, 'start_urls'):
            self.start_urls = []

    def start_requests(self):
        for url in self.start_urls:
            yield Request(url)

    def parse(self, response):
        print(response.body)

class ChoutiSpider(Spider):
    name = "chouti"
    start_urls = ["http://dig.chouti.com"]

    def parse(self, response):
        print(next((s for s in response.text.split('\n') if "<title>" in s)))

class BingSpider(Spider):
    name = "bing"
    start_urls = ["http://www.bing.com"]

class BaiduSpider(Spider):
    name = "baidu"
    start_urls = ["http://www.baidu.com"]

if __name__ == '__main__':
    spider_cls_list = [ChoutiSpider, BingSpider, BaiduSpider]
    crawler_process = CrawlerProcess()
    for spider_cls in spider_cls_list:
        crawler_process.crawl(spider_cls)
    crawler_process.start()

這里用的類名、方法名、部分代碼都是和Scrapy的源碼里一樣的。相當于把Scrapy精簡了,把其中的核心都提取出來了。如果能看明白這部分代碼,再去Scrapy里看源碼應該能相對容易一些了。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

进贤县| 上虞市| 广安市| 新龙县| 宜宾县| 聂拉木县| 康平县| 防城港市| 永昌县| 桦甸市| 武平县| 莆田市| 阳泉市| 册亨县| 胶州市| 涟水县| 邛崃市| 桐柏县| 遵化市| 儋州市| 镇赉县| 大新县| 平凉市| 石城县| 萨嘎县| 澎湖县| 辽中县| 垣曲县| 桦川县| 虹口区| 金乡县| 东兰县| 西乡县| 峨眉山市| 崇信县| 江川县| 峨山| 子长县| 蓝山县| 平阳县| 八宿县|