91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

利用Python爬蟲怎么對列表的內容進行爬取

發布時間:2021-01-18 16:22:48 來源:億速云 閱讀:808 作者:Leah 欄目:開發技術

利用Python爬蟲怎么對列表的內容進行爬取?針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

首先導入requests和BeautifulSoup

import requests
from bs4 import BeautifulSoup

由于很多網站定義了反爬策略,所以進行偽裝一下

headers = {
    'User-Agent': 'Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 87.0.4280.141Safari / 537.36'
  }

在這里User-Agent只是其中的一種方式,而且大家的User-Agent可能不同。

爬取數據main代碼

url = 'https://q.cnblogs.com/list/unsolved?'
  fp = open('blog', 'w', encoding='utf-8')
  for page in range(1,26):
    page = str(page)
    param = {
      'page':page
    }
    page_text = requests.get(url=url,params=param,headers=headers).text
    page_soup = BeautifulSoup(page_text,'lxml')
    text_list = page_soup.select('.one_entity > .news_item > h3')
    for h3 in text_list:
      text = h3.a.string
      fp.write(text+'\n')
    print('第'+page+'頁爬取成功!')

注意一下這里,由于我們需要的是多張頁面的數據,所以在發送請求的url中我們就要針對不同的頁面發送請求,https://q.cnblogs.com/list/unsolved?page=我們要做的是在發送請求的url時候,根據參數來填充頁數page,
代碼實現:

  url = 'https://q.cnblogs.com/list/unsolved?'
  for page in range(1,26):
    page = str(page)
    param = {
      'page':page
    }
  page_text = requests.get(url=url,params=param,headers=headers).text

將所有的h3數組拿到,進行遍歷,通過取出h3中a標簽中的文本,并將每取出來的文本寫入到文件中,由于要遍歷多次,所以保存文件在上面的代碼中。

text_list = page_soup.select('.one_entity > .news_item > h3')
    for h3 in text_list:
      text = h3.a.string
      fp.write(text+'\n')

完整代碼如下:

import requests
from bs4 import BeautifulSoup
if __name__ == '__main__':
  headers = {
    'User-Agent': 'Mozilla / 5.0(WindowsNT10.0;Win64;x64) AppleWebKit / 537.36(KHTML, likeGecko) Chrome / 87.0.4280.141Safari / 537.36'
  }
  url = 'https://q.cnblogs.com/list/unsolved?'
  fp = open('blog', 'w', encoding='utf-8')
  for page in range(1,26):
    page = str(page)
    param = {
      'page':page
    }
    page_text = requests.get(url=url,params=param,headers=headers).text
    page_soup = BeautifulSoup(page_text,'lxml')
    text_list = page_soup.select('.one_entity > .news_item > h3')
    for h3 in text_list:
      text = h3.a.string
      fp.write(text+'\n')
    print('第'+page+'頁爬取成功!')

關于利用Python爬蟲怎么對列表的內容進行爬取問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

新竹县| 岑溪市| 永和县| 阿拉尔市| 沧源| 华蓥市| 章丘市| 靖宇县| 肥乡县| 新和县| 铜鼓县| 壶关县| 龙口市| 贵州省| 威宁| 沈丘县| 临洮县| 从化市| 区。| 通山县| 鸡东县| 湘潭市| 客服| 桐乡市| 建德市| 荃湾区| 嵩明县| 台南市| 措勤县| 名山县| 伊春市| 山阴县| 稻城县| 新泰市| 化隆| 鲁甸县| 翼城县| 册亨县| 田东县| 开化县| 长宁区|