您好,登錄后才能下訂單哦!
這篇文章主要介紹“如何理解Scrapy關于item pipeline的傳遞方法”,在日常操作中,相信很多人在如何理解Scrapy關于item pipeline的傳遞方法問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”如何理解Scrapy關于item pipeline的傳遞方法”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
當Item在Spider中被收集之后,它將會被傳遞到Item Pipeline,這些Item Pipeline組件按定義的順序處理Item。
每個Item Pipeline都是實現了簡單方法的Python類,比如決定此Item是丟棄而存儲。以下是item pipeline的一些典型應用:
驗證爬取的數據(檢查item包含某些字段,比如說name字段)
查重(并丟棄)
將爬取結果保存到文件或者數據庫中
編寫item pipeline很簡單,item pipiline組件是一個獨立的Python類,其中process_item()方法必須實現:
import somethingclass SomethingPipeline(object): def __init__(self): # 可選實現,做參數初始化等 # doing something def process_item(self, item, spider): # item (Item 對象) – 被爬取的item # spider (Spider 對象) – 爬取該item的spider # 這個方法必須實現,每個item pipeline組件都需要調用該方法, # 這個方法必須返回一個 Item 對象,被丟棄的item將不會被之后的pipeline組件所處理。 return item def open_spider(self, spider): # spider (Spider 對象) – 被開啟的spider # 可選實現,當spider被開啟時,這個方法被調用。 def close_spider(self, spider): # spider (Spider 對象) – 被關閉的spider # 可選實現,當spider被關閉時,這個方法被調用
為了啟用Item Pipeline組件,必須將它的類添加到 settings.py文件ITEM_PIPELINES 配置,就像下面這個例子:
# Configure item pipelines# See http://scrapy.readthedocs.org/en/latest/topics/item-pipeline.htmlITEM_PIPELINES = { #'mySpider.pipelines.SomePipeline': 300, "mySpider.pipelines.ItcastJsonPipeline":300}
分配給每個類的整型值,確定了他們運行的順序,item按數字從低到高的順序,通過pipeline,通常將這些數字定義在0-1000范圍內(0-1000隨意設置,數值越低,組件的優先級越高)
將parse()方法改為入門簡介中最后思考中的代碼,然后執行下面的命令:
scrapy crawl itcast
查看當前目錄是否生成teacher.json
到此,關于“如何理解Scrapy關于item pipeline的傳遞方法”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。