91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Scrapy的基礎知識是什么

發布時間:2021-12-04 15:08:00 來源:億速云 閱讀:116 作者:柒染 欄目:編程語言

Scrapy的基礎知識是什么,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。

我們將在這里介紹完Scrapy的基礎知識

架構簡介

下面是Scrapy的架構,包括組件以及在系統中發生的數據流的概覽(紅色箭頭所示)。 之后會對每個組件做簡單介紹,數據流也會做一個簡要描述。

Scrapy的基礎知識是什么

Scrapy的基礎知識是什么

Scrapy的基礎知識是什么

Scrapy的基礎知識是什么

架構就是這樣,流程和我第二篇里介紹的迷你架構差不多,但擴展性非常強大。

One more thing

Scrapy的基礎知識是什么

Scrapy的基礎知識是什么

Scrapy的基礎知識是什么

scrapy startproject tutorial

該命令將會創建包含下列內容的 tutorial 目錄:

tutorial/      scrapy.cfg            # 項目的配置文件      tutorial/             # 該項目的python模塊。之后您將在此加入代碼          __init__.py          items.py          # 項目中的item文件          pipelines.py      # 項目中的pipelines文件          settings.py       # 項目的設置文件          spiders/          # 放置spider代碼的目錄              __init__.py

編寫第一個爬蟲

Spider是用戶編寫用于從單個網站(或者一些網站)爬取數據的類。其包含了一個用于下載的初始URL,以及如何跟進網頁中的鏈接以及如何分析頁面中的內容的方法。

以下為我們的***個Spider代碼,保存在 tutorial/spiders 目錄下的 quotes_spider.py文件中:

import scrapy    class QuotesSpider(scrapy.Spider):      name = "quotes"        def start_requests(self):          urls = [              'http://quotes.toscrape.com/page/1/',              'http://quotes.toscrape.com/page/2/',          ]          for url in urls:              yield scrapy.Request(url=url, callback=self.parse)        def parse(self, response):          page = response.url.split("/")[-2]          filename = 'quotes-%s.html' % page          with open(filename, 'wb') as f:              f.write(response.body)          self.log('Saved file %s' % filename)

運行我們的爬蟲

進入項目的根目錄,執行下列命令啟動spider:

scrapy crawl quotes

這個命令啟動用于爬取 quotes.toscrape.com 的spider,你將得到類似的輸出:

2017-05-10 20:36:17 [scrapy.core.engine] INFO: Spider opened  2017-05-10 20:36:17 [scrapy.extensions.logstats] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)  2017-05-10 20:36:17 [scrapy.extensions.telnet] DEBUG: Telnet console listening on 127.0.0.1:6023  2017-05-10 20:36:17 [scrapy.core.engine] DEBUG: Crawled (404) <GET http://quotes.toscrape.com/robots.txt> (referer: None)  2017-05-10 20:36:17 [scrapy.core.engine] DEBUG: Crawled (200) <GET http://quotes.toscrape.com/page/1/> (referer: None)  2017-05-10 20:36:17 [scrapy.core.engine] DEBUG: Crawled (200) <GET http://quotes.toscrape.com/page/2/> (referer: None)  2017-05-10 20:36:17 [quotes] DEBUG: Saved file quotes-1.html  2017-05-10 20:36:17 [quotes] DEBUG: Saved file quotes-2.html  2017-05-10 20:36:17 [scrapy.core.engine] INFO: Closing spider (finished)

提取數據

我們之前只是保存了HTML頁面,并沒有提取數據。現在升級一下代碼,把提取功能加進去。至于如何使用瀏覽器的開發者模式分析網頁,之前已經介紹過了。

import scrapy   class QuotesSpider(scrapy.Spider):      name = "quotes"      start_urls = [          'http://quotes.toscrape.com/page/1/',          'http://quotes.toscrape.com/page/2/',      ]        def parse(self, response):          for quote in response.css('div.quote'):              yield {                  'text': quote.css('span.text::text').extract_first(),                  'author': quote.css('small.author::text').extract_first(),                  'tags': quote.css('div.tags a.tag::text').extract(),              }

再次運行這個爬蟲,你將在日志里看到被提取出的數據:

2017-05-10 20:38:33 [scrapy.core.scraper] DEBUG: Scraped from <200 http://quotes.toscrape.com/page/1/>  {'tags': ['life', 'love'], 'author': 'Andr&eacute; Gide', 'text': '“It is better to be hated for what you are than to be loved for what you are not.”'}  2017-05-10 20:38:33 [scrapy.core.scraper] DEBUG: Scraped from <200 http://quotes.toscrape.com/page/1/>  {'tags': ['edison', 'failure', 'inspirational', 'paraphrased'], 'author': 'Thomas A. Edison', 'text': "“I have not failed. I've just found 10,000 ways that won't work.”"}

保存爬取的數據

最簡單存儲爬取的數據的方式是使用 Feed exports:

scrapy crawl quotes -o quotes.json

該命令將采用 JSON 格式對爬取的數據進行序列化,生成quotes.json文件。

如果需要對爬取到的item做更多更為復雜的操作,你可以編寫 Item Pipeline,tutorial/pipelines.py在最開始的時候已經自動創建了。

看完上述內容是否對您有幫助呢?如果還想對相關知識有進一步的了解或閱讀更多相關文章,請關注億速云行業資訊頻道,感謝您對億速云的支持。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

台中县| 阳城县| 交口县| 潞西市| 靖宇县| 卢湾区| 亚东县| 乐昌市| 台州市| 道孚县| 赣榆县| 霸州市| 蓝山县| 桃园县| 习水县| 曲阳县| 清丰县| 加查县| 游戏| 汝州市| 眉山市| 故城县| 靖西县| 河曲县| 三原县| 彝良县| 吉隆县| 峨眉山市| 定结县| 博兴县| 招远市| 襄垣县| 德令哈市| 翁源县| 广灵县| 泽州县| 南充市| 虹口区| 海伦市| 万年县| 佛坪县|