91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

爬蟲解析提取數據的方法有哪些

發布時間:2021-06-12 16:56:44 來源:億速云 閱讀:133 作者:Leah 欄目:編程語言

本篇文章為大家展示了爬蟲解析提取數據的方法有哪些,內容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細介紹希望你能有所收獲。

 一、分析網頁

以經典的爬取豆瓣電影 Top250 信息為例。每條電影信息在 ol class 為 grid_view 下的 li 標簽里,獲取到所有 li 標簽的內容,然后遍歷,就可以從中提取出每一條電影的信息。

翻頁查看url變化規律:

第1頁:https://movie.douban.com/top250?start=0&filter=  第2頁:https://movie.douban.com/top250?start=25&filter=  第3頁:https://movie.douban.com/top250?start=50&filter=  第10頁:https://movie.douban.com/top250?start=225&filter=

start參數控制翻頁,start = 25  * (page - 1)

爬蟲解析提取數據的方法有哪些

本文分別利用正則表達式、BeautifulSoup、PyQuery、Xpath來解析提取數據,并將豆瓣電影 Top250 信息保存到本地。

二、正則表達式

正則表達式是一個特殊的字符序列,它能幫助你方便地檢查一個字符串是否與某種模式匹配,常用于數據清洗,也可以順便用于爬蟲,從網頁源代碼文本中匹配出我們想要的數據。

re.findall

  •  在字符串中找到正則表達式所匹配的所有子串,并返回一個列表,如果沒有找到匹配的,則返回空列表。

  •  注意:match和 search 是匹配一次;而 findall 匹配所有。

  •  語法格式為:findall(string[, pos[, endpos]])

  •  string : 待匹配的字符串;pos : 可選參數,指定字符串的起始位置,默認為 0;endpos : 可選參數,指定字符串的結束位置,默認為字符串的長度。

示例如下:

import re  text = """  <div class="box picblock col3" style="width:186px;height:264px">  <img src2="http://pic2.sc.chinaz.com/Files/pic/pic9/202007/apic26584_s.jpg" 123nfsjgnalt="山水風景攝影圖片">  <a target="_blank" href="http://sc.chinaz.com/tupian/200509002684.htm"  <img src2="http://pic2.sc.chinaz.com/Files/pic/pic9/202007/apic26518_s.jpg" enrberonbialt="山脈湖泊山水風景圖片">  <a target="_blank" href="http://sc.chinaz.com/tupian/200509002684.htm"  <img src2="http://pic2.sc.chinaz.com/Files/pic/pic9/202006/apic26029_s.jpg" woenigoigniefnirneialt="旅游景點山水風景圖片">  <a target="_blank" href="http://sc.chinaz.com/tupian/200509002684.htm"  """  pattern = re.compile(r'\d+')  # 查找所有數字  result1 = pattern.findall('me 123 rich 456 money 1000000000000')  print(result1) img_info = re.findall('<img src2="(.*?)" .*alt="(.*?)">', text)  # 匹配src2 alt里的內容  for src, alt in img_info:      print(src, alt)  ['123', '456', '1000000000000']  http://pic2.sc.chinaz.com/Files/pic/pic9/202007/apic26584_s.jpg 山水風景攝影圖片  http://pic2.sc.chinaz.com/Files/pic/pic9/202007/apic26518_s.jpg 山脈湖泊山水風景圖片  http://pic2.sc.chinaz.com/Files/pic/pic9/202006/apic26029_s.jpg 旅游景點山水風景圖片

代碼如下:

# -*- coding: UTF-8 -*-  """  @Author  :葉庭云  @公眾號  :修煉Python  @CSDN    :https://yetingyun.blog.csdn.net/  """  import requests  import re  from pandas import DataFrame from fake_useragent import UserAgent  import logging  # 日志輸出的基本配置  logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s: %(message)s')  # 隨機產生請求頭  ua = UserAgent(verify_ssl=False, path='fake_useragent.json')  def random_ua():      headers = {          "Accept-Encoding": "gzip",          "Connection": "keep-alive",          "User-Agent": ua.random      }      return headers  def scrape_html(url):      resp = requests.get(url, headers=random_ua())      # print(resp.status_code, type(resp.status_code))      if resp.status_code == 200:          return resp.text      else:          logging.info('請求網頁失敗')  def get_data(page):      url = f"https://movie.douban.com/top250?start={25 * page}&filter="      html_text = scrape_html(url)      # 電影名稱  導演 主演      name = re.findall('<img width="100" alt="(.*?)" src=".*"', html_text)      director_actor = re.findall('(.*?)<br>', html_text)      director_actor = [item.strip() for item in director_actor]      # 上映時間  上映地區  電影類型信息   去除兩端多余空格      info = re.findall('(.*)&nbsp;/&nbsp;(.*)&nbsp;/&nbsp;(.*)', html_text)      time_ = [x[0].strip() for x in info]      area = [x[1].strip() for x in info]      genres = [x[2].strip() for x in info]      # 評分  評分人數      rating_score = re.findall('<span class="rating_num" property="v:average">(.*)</span>', html_text)      rating_num = re.findall('<span>(.*?)人評價</span>', html_text)      # 一句話引言      quote = re.findall('<span class="inq">(.*)</span>', html_text)      data = {'電影名': name, '導演和主演': director_actor,              '上映時間': time_, '上映地區': area, '電影類型': genres,              '評分': rating_score, '評價人數': rating_num, '引言': quote}      df = DataFrame(data)      if page == 0:          df.to_csv('movie_data2.csv', mode='a+', header=True, index=False)      else:          df.to_csv('movie_data2.csv', mode='a+', header=False, index=False)      logging.info(f'已爬取第{page + 1}頁數據')  if __name__ == '__main__':      for i in range(10):          get_data(i)

三、BeautifulSoup

find( )與 find_all( ) 是 BeautifulSoup 對象的兩個方法,它們可以匹配 html 的標簽和屬性,把 BeautifulSoup 對象里符合要求的數據都提取出來:

爬蟲解析提取數據的方法有哪些

  •  find( )只提取首個滿足要求的數據

  •  find_all( )提取出的是所有滿足要求的數據

  •  find( ) 或 find_all( ) 括號中的參數:標簽和屬性可以任選其一,也可以兩個一起使用,這取決于我們要在網頁中提取的內容。括號里的class_,這里有一個下劃線,是為了和 python 語法中的類 class 區分,避免程序沖突。當然,除了用 class 屬性去匹配,還可以使用其它屬性,比如 style 屬性等;只用其中一個參數就可以準確定位的話,就只用一個參數檢索。如果需要標簽和屬性同時滿足的情況下才能準確定位到我們想找的內容,那就兩個參數一起使用。

爬蟲解析提取數據的方法有哪些

代碼如下:

# -*- coding: UTF-8 -*-  """  @Author  :葉庭云  @公眾號  :修煉Python  @CSDN    :https://yetingyun.blog.csdn.net/  """  import requests  from bs4 import BeautifulSoup  import openpyxl  from fake_useragent import UserAgent  import logging  # 日志輸出的基本配置  logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s: %(message)s')  # 隨機產生請求頭  ua = UserAgent(verify_ssl=False, path='fake_useragent.json')  wb = openpyxl.Workbook()    # 創建工作簿對象  sheet = wb.active           # 獲取工作簿的活動表  sheet.title = "movie"       # 工作簿重命名  sheet.append(["排名", "電影名", "導演和主演", "上映時間", "上映地區", "電影類型", "評分", "評價人數", "引言"])  def random_ua():      headers = {          "Accept-Encoding": "gzip",          "Connection": "keep-alive",          "User-Agent": ua.random      }      return headers  def scrape_html(url):      resp = requests.get(url, headers=random_ua())      # print(resp.status_code, type(resp.status_code))      if resp.status_code == 200:          return resp.text      else:          logging.info('請求網頁失敗')  def get_data(page):      global rank      url = f"https://movie.douban.com/top250?start={25 * page}&filter="      html_text = scrape_html(url)      soup = BeautifulSoup(html_text, 'html.parser')      lis = soup.find_all('div', class_='item')      for li in lis:          name = li.find('div', class_='hd').a.span.text          temp = li.find('div', class_='bd').p.text.strip().split('\n')          director_actor = temp[0]          temptemp1 = temp[1].rsplit('/', 2)          time_, area, genres = [item.strip() for item in temp1]          quote = li.find('p', class_='quote')          # 有些電影信息沒有一句話引言          if quote:              quotequote = quote.span.text          else:              quote = None          rating_score = li.find('span', class_='rating_num').text          rating_num = li.find('div', class_='star').find_all('span')[-1].text          sheet.append([rank, name, director_actor, time_, area, genres, rating_score, rating_num, quote])          logging.info([rank, name, director_actor, time_, area, genres, rating_score, rating_num, quote])          rank += 1 if __name__ == '__main__':      rank = 1      for i in range(10):          get_data(i)      wb.save(filename='movie_info4.xlsx')

四、PyQuery

  •  每個網頁,都有一定的特殊結構和層級關系,并且很多節點都有 id 或 class 作為區分,我們可以借助它們的結構和屬性來提取信息。

  •  強大的 HTML 解析庫:pyquery,利用它,我們可以直接解析 DOM 節點的結構,并通過 DOM 節點的一些屬性快速進行內容提取。

如下示例:在解析 HTML 文本的時候,首先需要將其初始化為一個 pyquery 對象。它的初始化方式有多種,比如直接傳入字符串、傳入 URL、傳入文件名等等。

from pyquery import PyQuery as pq  html = '''  <div>      <ul class="clearfix">          <li class="item-0">first item</li>          <li class="item-1"><a href="link2.html">second item</a></li>          <li><img src="http://pic.netbian.com/uploads/allimg/210107/215736-1610027856f6ef.jpg"></li>          <li><img src="http://pic.netbian.com//uploads/allimg/190902/152344-1567409024af8c.jpg"></li>       </ul>  </div>  '''  doc = pq(html)  print(doc('li'))

結果如下:

<li class="item-0">first item</li>  <li class="item-1"><a href="link2.html">second item</a></li>  <li><img src="http://pic.netbian.com/uploads/allimg/210107/215736-1610027856f6ef.jpg"/></li>  <li><img src="http://pic.netbian.com//uploads/allimg/190902/152344-1567409024af8c.jpg"/></li>

首先引入 pyquery 這個對象,取別名為 pq,然后定義了一個長 HTML 字符串,并將其當作參數傳遞給 pyquery 類,這樣就成功完成了初始化。接下來,將初始化的對象傳入 CSS 選擇器。在這個實例中,我們傳入 li 節點,這樣就可以選擇所有的 li 節點。

代碼如下:

# -*- coding: UTF-8 -*-  """  @Author  :葉庭云  @公眾號  :修煉Python  @CSDN    :https://yetingyun.blog.csdn.net/  """  import requests  from pyquery import PyQuery as pq  import openpyxl  from fake_useragent import UserAgent  import logging  # 日志輸出的基本配置  logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s: %(message)s')  # 隨機產生請求頭  ua = UserAgent(verify_ssl=False, path='fake_useragent.json')  wb = openpyxl.Workbook()    # 創建工作簿對象  sheet = wb.active           # 獲取工作簿的活動表  sheet.title = "movie"       # 工作簿重命名  sheet.append(["排名", "電影名", "導演和主演", "上映時間", "上映地區", "電影類型", "評分", "評價人數", "引言"])  def random_ua():      headers = {          "Accept-Encoding": "gzip",          "Connection": "keep-alive",          "User-Agent": ua.random      }      return headers   def scrape_html(url):      resp = requests.get(url, headers=random_ua())      # print(resp.status_code, type(resp.status_code))      if resp.status_code == 200:          return resp.text      else:          logging.info('請求網頁失敗')  def get_data(page):      global rank      url = f"https://movie.douban.com/top250?start={25 * page}&filter="      html_text = scrape_html(url)      doc = pq(html_text)      lis = doc('.grid_view li')      for li in lis.items():          name = li('.hd a span:first-child').text()          temp = li('.bd p:first-child').text().split('\n')          director_actor = temp[0]          temptemp1 = temp[1].rsplit('/', 2)          time_, area, genres = [item.strip() for item in temp1]          quote = li('.quote span').text()          rating_score = li('.star .rating_num').text()          rating_num = li('.star span:last-child').text()          sheet.append([rank, name, director_actor, time_, area, genres, rating_score, rating_num, quote])          logging.info([rank, name, director_actor, time_, area, genres, rating_score, rating_num, quote])          rank += 1 if __name__ == '__main__':      rank = 1      for i in range(10):          get_data(i)      wb.save(filename='movie_info3.xlsx')

五、Xpath

Xpath是一個非常好用的解析方法,同時也作為爬蟲學習的基礎,在后面的 Selenium 以及 Scrapy 框架中也會涉及到這部分知識。

首先我們使用 lxml 的 etree 庫,然后利用 etree.HTML 初始化,然后我們將其打印出來。其中,這里體現了 lxml 的一個非常實用的功能就是自動修正 html 代碼,大家應該注意到了,最后一個 li 標簽,其實我把尾標簽刪掉了,是不閉合的。不過,lxml 因為繼承了 libxml2 的特性,具有自動修正 HTML 代碼的功能,通過 xpath 表達式可以提取標簽里的內容,如下所示:

from lxml import etree  text = '''  <div>      <ul>           <li class="item-0"><a href="link1.html">first item</a></li>           <li class="item-1"><a href="link2.html">second item</a></li>           <li class="item-inactive"><a href="link3.html">third item</a></li>           <li class="item-1"><a href="link4.html">fourth item</a></li>           <li class="item-0"><a href="link5.html">fifth item</a>       </ul>   </div>  '''  html = etree.HTML(text)  result = etree.tostring(html)  result1 = html.xpath('//li/@class')   # xpath表達式  print(result1)  print(result)
['item-0', 'item-1', 'item-inactive', 'item-1', 'item-0']  <html><body>  <div>      <ul>           <li class="item-0"><a href="link1.html">first item</a></li>          <li class="item-1"><a href="link2.html">second item</a></li>           <li class="item-inactive"><a href="link3.html">third item</a></li>           <li class="item-1"><a href="link4.html">fourth item</a></li>           <li class="item-0"><a href="link5.html">fifth item</a></li>      </ul>  </div> </body></html>

代碼如下:

# -*- coding: UTF-8 -*-  """  @Author  :葉庭云  @公眾號  :修煉Python  @CSDN    :https://yetingyun.blog.csdn.net/  """  import requests  from lxml import etree  import openpyxl  from fake_useragent import UserAgent  import logging  # 日志輸出的基本配置  logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s: %(message)s') # 隨機產生請求頭  ua = UserAgent(verify_ssl=False, path='fake_useragent.json')  wb = openpyxl.Workbook()    # 創建工作簿對象  sheet = wb.active           # 獲取工作簿的活動表  sheet.title = "movie"       # 工作簿重命名  sheet.append(["排名", "電影名", "導演和主演", "上映時間", "上映地區", "電影類型", "評分", "評價人數", "引言"])  def random_ua():      headers = {          "Accept-Encoding": "gzip",          "Connection": "keep-alive",          "User-Agent": ua.random      }      return headers  def scrape_html(url):      resp = requests.get(url, headers=random_ua())      # print(resp.status_code, type(resp.status_code))      if resp.status_code == 200:          return resp.text      else:          logging.info('請求網頁失敗')  def get_data(page):      global rank      url = f"https://movie.douban.com/top250?start={25 * page}&filter="      html = etree.HTML(scrape_html(url))      lis = html.xpath('//ol[@class="grid_view"]/li')      # 每個li標簽里有每部電影的基本信息      for li in lis:          name = li.xpath('.//div[@class="hd"]/a/span[1]/text()')[0]          director_actor = li.xpath('.//div[@class="bd"]/p/text()')[0].strip()          info = li.xpath('.//div[@class="bd"]/p/text()')[1].strip()          # 按"/"切割成列表          _info = info.split("/")          # 得到 上映時間  上映地區  電影類型信息   去除兩端多余空格          time_, area, genres = _info[0].strip(), _info[1].strip(), _info[2].strip()          # print(time, area, genres)          rating_score = li.xpath('.//div[@class="star"]/span[2]/text()')[0]          rating_num = li.xpath('.//div[@class="star"]/span[4]/text()')[0]          quote = li.xpath('.//p[@class="quote"]/span/text()')          # 有些電影信息沒有一句話引言  加條件判斷  防止報錯          if len(quote) == 0:              quote = None          else:              quotequote = quote[0]          sheet.append([rank, name, director_actor, time_, area, genres, rating_score, rating_num, quote])          logging.info([rank, name, director_actor, time_, area, genres, rating_score, rating_num, quote])          rank += 1  if __name__ == '__main__':      rank = 1      for i in range(10):          get_data(i)      wb.save(filename='movie_info1.xlsx')

六、總結

  •  爬取網頁數據用正則表達式的話,可以直接從網頁源代碼文本中匹配,但出錯率較高,且熟悉正則表達式的使用也比較難,需要經常翻閱文檔。

  •  實際爬取數據大多基于 HTML 結構的 Web 頁面,網頁節點較多,各種層級關系。可以考慮使用 Xpath 解析器、BeautifulSoup解析器、PyQuery CSS解析器抽取結構化數據,使用正則表達式抽取非結構化數據。

  •  Xpath:可在 XML 中查找信息;支持 HTML 的查找 ;通過元素和屬性進行導航,查找效率很高。在學習 Selenium 以及 Scrapy 框架中也都會用到。

  •  BeautifulSoup:依賴于 lxml 的解析庫,也可以從 HTML 或 XML 文件中提取數據。

  •  PyQuery:Python仿照 jQuery 嚴格實現,可以直接解析 DOM 節點的結構,并通過 DOM 節點的一些屬性快速進行內容提取。

對于爬取網頁結構簡單的 Web 頁面,有些代碼是可以復用的,如下所示:

from fake_useragent import UserAgent  # 隨機產生請求頭  ua = UserAgent(verify_ssl=False, path='fake_useragent.json')  def random_ua():      headers = {          "Accept-Encoding": "gzip",          "User-Agent": ua.random      }      return headers

偽裝請求頭,并可以隨機切換,封裝為函數,便于復用。

def scrape_html(url):      resp = requests.get(url, headers=random_ua())      # print(resp.status_code, type(resp.status_code))      # print(resp.text)      if resp.status_code == 200:          return resp.text      else:          logging.info('請求網頁失敗')

上述內容就是爬蟲解析提取數據的方法有哪些,你們學到知識或技能了嗎?如果還想學到更多技能或者豐富自己的知識儲備,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

仲巴县| 新民市| 广西| 德清县| 象州县| 红河县| 金平| 东平县| 札达县| 卢龙县| 台北市| 祁东县| 南京市| 衡阳市| 建宁县| 东乌珠穆沁旗| 西林县| 大厂| 玉山县| 紫云| 象山县| 昌黎县| 石景山区| 庆城县| 天峨县| 拉孜县| 云霄县| 涟水县| 岑溪市| 张家川| 吉安市| 乌海市| 双鸭山市| 额敏县| 横山县| 镇原县| 玉山县| 巴塘县| 桦南县| 富锦市| 长武县|