91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬蟲實現爬取百度百科詞條功能

發布時間:2021-06-03 16:26:57 來源:億速云 閱讀:224 作者:Leah 欄目:開發技術

Python爬蟲實現爬取百度百科詞條功能?相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。

爬蟲主程序入口

from crawler_test.html_downloader import UrlDownLoader
from crawler_test.html_outer import HtmlOuter
from crawler_test.html_parser import HtmlParser
from crawler_test.url_manager import UrlManager
# 爬蟲主程序入口
class MainCrawler():
  def __init__(self):
    # 初始值,實例化四大處理器:url管理器,下載器,解析器,輸出器
    self.urls = UrlManager()
    self.downloader = UrlDownLoader()
    self.parser = HtmlParser()
    self.outer = HtmlOuter()
  # 開始爬蟲方法
  def start_craw(self, main_url):
    print('爬蟲開始...')
    count = 1
    self.urls.add_new_url(main_url)
    while self.urls.has_new_url():
      try:
        new_url = self.urls.get_new_url()
        print('爬蟲%d,%s' % (count, new_url))
        html_cont = self.downloader.down_load(new_url)
        new_urls, new_data = self.parser.parse(new_url, html_cont)
        # 將解析出的url放入url管理器,解析出的數據放入輸出器中
        self.urls.add_new_urls(new_urls)
        self.outer.conllect_data(new_data)
        if count >= 10:# 控制爬取的數量
          break
        count += 1
      except:
        print('爬蟲失敗一條')
    self.outer.output()
    print('爬蟲結束。')
if __name__ == '__main__':
  main_url = 'https://baike.baidu.com/item/Python/407313'
  mc = MainCrawler()
  mc.start_craw(main_url)

URL管理器

# URL管理器
class UrlManager():
  def __init__(self):
    self.new_urls = set() # 待爬取
    self.old_urls = set() # 已爬取
  # 添加一個新的url
  def add_new_url(self, url):
    if url is None:
      return
    elif url not in self.new_urls and url not in self.old_urls:
      self.new_urls.add(url)
  # 批量添加url
  def add_new_urls(self, urls):
    if urls is None or len(urls) == 0:
      return
    else:
      for url in urls:
        self.add_new_url(url)
  # 判斷是否有url
  def has_new_url(self):
    return len(self.new_urls) != 0
  # 從待爬取的集合中獲取一個url
  def get_new_url(self):
    new_url = self.new_urls.pop()
    self.old_urls.add(new_url)
    return new_url

網頁下載器

from urllib import request
# 網頁下載器
class UrlDownLoader():
  def down_load(self, url):
    if url is None:
      return None
    else:
      rt = request.Request(url=url, method='GET')   # 發GET請求
      with request.urlopen(rt) as rp:         # 打開網頁
        if rp.status != 200:
          return None
        else:
          return rp.read()            # 讀取網頁內容

網頁解析器

import re
from urllib import parse
from bs4 import BeautifulSoup
# 網頁解析器,使用BeautifulSoup
class HtmlParser():
  # 每個詞條中,可以有多個超鏈接
  # main_url指url公共部分,如“https://baike.baidu.com/”
  def _get_new_url(self, main_url, soup):
    # baike.baidu.com/
    # <a target="_blank" href="/item/%E8%AE%A1%E7%AE%97%E6%9C%BA%E7%A8%8B%E5%BA%8F%E8%AE%BE%E8%AE%A1%E8%AF%AD%E8%A8%80" rel="external nofollow" >計算機程序設計語言</a>
    new_urls = set()
    # 解析出main_url之后的url部分
    child_urls = soup.find_all('a', href=re.compile(r'/item/(\%\w{2})+'))
    for child_url in child_urls:
      new_url = child_url['href']
      # 再拼接成完整的url
      full_url = parse.urljoin(main_url, new_url)
      new_urls.add(full_url)
    return new_urls
  # 每個詞條中,只有一個描述內容,解析出數據(詞條,內容)
  def _get_new_data(self, main_url, soup):
    new_datas = {}
    new_datas['url'] = main_url
    # <dd class="lemmaWgt-lemmaTitle-title"><h2>計算機程序設計語言</h2>...
    new_datas['title'] = soup.find('dd', class_='lemmaWgt-lemmaTitle-title').find('h2').get_text()
    # class="lemma-summary" label-module="lemmaSummary"...
    new_datas['content'] = soup.find('div', attrs={'label-module': 'lemmaSummary'},
                     class_='lemma-summary').get_text()
    return new_datas
  # 解析出url和數據(詞條,內容)
  def parse(self, main_url, html_cont):
    if main_url is None or html_cont is None:
      return
    soup = BeautifulSoup(html_cont, 'lxml', from_encoding='utf-8')
    new_url = self._get_new_url(main_url, soup)
    new_data = self._get_new_data(main_url, soup)
    return new_url, new_data

輸出處理器

# 輸出器
class HtmlOuter():
  def __init__(self):
    self.datas = []
  # 先收集數據
  def conllect_data(self, data):
    if data is None:
      return
    self.datas.append(data)
    return self.datas
  # 輸出為HTML
  def output(self, file='output_html.html'):
    with open(file, 'w', encoding='utf-8') as fh:
      fh.write('<html>')
      fh.write('<head>')
      fh.write('<meta charset="utf-8"></meta>')
      fh.write('<title>爬蟲數據結果</title>')
      fh.write('</head>')
      fh.write('<body>')
      fh.write(
        '<table >')
      fh.write('<tr>')
      fh.write('<th >URL</th>')
      fh.write('<th >詞條</th>')
      fh.write('<th >內容</th>')
      fh.write('</tr>')
      for data in self.datas:
        fh.write('<tr>')
        fh.write('<td >{0}</td>'.format(data['url']))
        fh.write('<td >{0}</td>'.format(data['title']))
        fh.write('<td >{0}</td>'.format(data['content']))
        fh.write('</tr>')
      fh.write('</table>')
      fh.write('</body>')
      fh.write('</html>')

效果(部分):

Python爬蟲實現爬取百度百科詞條功能

看完上述內容,你們掌握Python爬蟲實現爬取百度百科詞條功能的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

巴里| 乐山市| 兴业县| 黔西| 哈尔滨市| 绥中县| 临城县| 嘉黎县| 民勤县| 兴安县| 神农架林区| 蓬安县| 南陵县| 清河县| 东乡县| 宜宾市| 大名县| 宁陵县| 绍兴市| 屏山县| 唐海县| 乐安县| 鹰潭市| 城口县| 稻城县| 临洮县| 米脂县| 新闻| 长治县| 永春县| 晋江市| 浠水县| 长葛市| 芦溪县| 新巴尔虎左旗| 南木林县| 都兰县| 老河口市| 泰安市| 平泉县| 文水县|