91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python Scrapy如何實現多頁數據爬取?

發布時間:2020-06-23 11:47:46 來源:億速云 閱讀:633 作者:清晨 欄目:開發技術

這篇文章將為大家詳細講解有關Python Scrapy如何實現多頁數據爬取?,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

1.先指定通用模板

url = 'https://www.qiushibaike.com/text/page/%d/'#通用的url模板
pageNum = 1

2.對parse方法遞歸處理

parse第一次調用表示的是用來解析第一頁對應頁面中的數據

對后面的頁碼的數據要進行手動發送

if self.pageNum <= 5:
  self.pageNum += 1
  new_url = format(self.url%self.pageNum)
  #手動請求(get)的發送
  yield scrapy.Request(new_url,callback=self.parse)

完整示例

class QiubaiSpider(scrapy.Spider):
  name = 'qiubai'
  # allowed_domains = ['www.xxx.com']
  start_urls = ['https://www.qiushibaike.com/text/']
  
  url = 'https://www.qiushibaike.com/text/page/%d/'#通用的url模板
  pageNum = 1
  #parse第一次調用表示的是用來解析第一頁對應頁面中的段子內容和作者
  def parse(self, response):
    div_list = response.xpath('//*[@id="content-left"]/div')
    all_data = []
    for div in div_list:
      author = div.xpath('./div[1]/a[2]/h3/text()').extract_first()
      
      content = div.xpath('./a[1]/div/span//text()').extract()
      content = ''.join(content)

      # 將解析的數據存儲到item對象
      item = QiubaiproItem()
      item['author'] = author
      item['content'] = content

      # 將item提交給管道
      yield item # item一定是提交給了優先級最高的管道類

    if self.pageNum <= 5:
      self.pageNum += 1
      new_url = format(self.url%self.pageNum)
      #手動請求(get)的發送
      yield scrapy.Request(new_url,callback=self.parse)

關于Python Scrapy如何實現多頁數據爬取?就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

大同市| 襄垣县| 扶风县| 富川| 庄浪县| 同心县| 龙门县| 桐柏县| 青铜峡市| 罗甸县| 杭锦后旗| 大化| 临城县| 上栗县| 石阡县| 精河县| 大宁县| 浦北县| 施甸县| 河曲县| 麻阳| 保亭| 林西县| 延吉市| 防城港市| 静宁县| 台前县| 绥棱县| 伽师县| 金川县| 古田县| 松江区| 河西区| 英吉沙县| 阿克| 沁阳市| 古丈县| 泾川县| 綦江县| 内黄县| 威远县|