91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python2如何爬取百度貼吧指定關鍵字和圖片

發布時間:2021-08-21 11:24:45 來源:億速云 閱讀:111 作者:小新 欄目:開發技術

這篇文章主要介紹python2如何爬取百度貼吧指定關鍵字和圖片,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

目的:在百度貼吧輸入關鍵字和要查找的起始結束頁,獲取帖子里面樓主所發的圖片

思路:

  • 獲取分頁里面的帖子鏈接列表

  • 獲取帖子里面樓主所發的圖片鏈接列表

  • 保存圖片到本地

注意事項:

  • 問題:在谷歌瀏覽器使用xpath helper插件時有匹配結果,但在程序里面使用python內帶的xpath匹配卻為空的原因。

  • 原因:不同服務器會對不同的瀏覽器返回不同的數據,導致在谷歌瀏覽器看到的和服務器返回的有區別

  • 解決方法:使用IE瀏覽器的User-agenet,而且越老的版本,報錯幾率相對越小

#!/usr/bin/env python
# -*- coding:utf-8 -*-
import urllib2
import urllib
import os
from lxml import etree
keyword = raw_input('請輸入要查詢的關鍵字: ')

keyword = {'kw':keyword}

kw = urllib.urlencode(keyword)

startpage = raw_input('請輸入開始頁數: ')

endpage = raw_input('請輸入結束頁數: ')

url = 'https://tieba.baidu.com/f' + '?' + kw

print('開始下載...')
# 計算下載的圖片個數,注意:變量n如放在最外層循環,可以統計每個分頁圖片個數
n = 0
# 獲取分頁里面帖子鏈接列表,獲取每個帖子里樓主所發的圖片鏈接列表,保存圖片
# 獲取帖子鏈接列表
for page in range(int(startpage),int(endpage)+1):
    pnumber = {'pn': str((page - 1)*50)}
    pnumber = urllib.urlencode(pnumber)
    fullurl = url + '&' + pnumber
    # 發現使用谷歌瀏覽器的User-Agent,會導致后面的xpath匹配結果有時為空。原因:服務器會對不同的瀏覽器發出的同一請求返回不同格式的數據,此時返回的數據和在谷歌瀏覽器里面看到的數據不同。
    # 解決辦法:使用IE瀏覽器的User-Agent,因為IE的相對來說更標準,而且版本越老問題越少。
    headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64; Trident/7.0; rv:11.0) like Gecko"}
    request = urllib2.Request(fullurl,headers=headers)
    response = urllib2.urlopen(request)
    html = response.read()

    # 解析html 為 HTML DOM文檔
    content = etree.HTML(html)
    # xpath使用下面括號內容進行匹配,使用a的屬性使用了class='j_th_tit'去過濾廣告則匹配結果為空;換成a的屬性rel="noreferrer"就解決。為啥換不清楚。思路,這個屬性不行換個屬性。
    # 獲取每個分頁里面的帖子的鏈接列表
    link_list = content.xpath('//div[@class="threadlist_lz clearfix"]/div/a[@rel="noreferrer"]/@href')
    # 獲取該帖子樓主所發的圖片鏈接列表
    for link in link_list:
      link = 'https://tieba.baidu.com' + link 
      request2 = urllib2.Request(link,headers=headers)
      response2 = urllib2.urlopen(request2)
      html2 = response2.read()

      # 把html字符串解析為html dom
      content2 = etree.HTML(html2)

      # 使用xpath匹配其里面層主所發的圖片的鏈接
      link_list2 = content2.xpath('//img[@class="BDE_Image"]/@src')

      # 遍歷圖片鏈接列表,保存圖片到文件夾images內
      for link2 in link_list2:

        request3 = urllib2.Request(link2,headers=headers)
        response3 = urllib2.urlopen(request3)
        html3 = response3.read()
        # 指定文件名
        filename = link2[-10:]
        n += 1
        print('正在保存第 %3d 張圖片'%n)

        # html3為返回的圖片內容,把圖片寫入images2文件夾內
        with open('images' + '/' + filename,'wb') as f:
          f.write(html3)

print('下載結束!')

以上是“python2如何爬取百度貼吧指定關鍵字和圖片”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

浦东新区| 西峡县| 北京市| 和田市| 遂平县| 景宁| 佳木斯市| 闻喜县| 昆明市| 江源县| 吕梁市| 南丹县| 洞头县| 稻城县| 临西县| 从化市| 贡嘎县| 长春市| 永春县| 江西省| 海南省| 双流县| 英吉沙县| 长宁区| 潢川县| 昌邑市| 麻栗坡县| 金昌市| 定边县| 合川市| 邓州市| 德化县| 涿州市| 钟山县| 鸡西市| 新乐市| 山丹县| 漳州市| 专栏| 昌邑市| 垣曲县|