91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python如何將爬取內容存入Excel

發布時間:2021-07-26 11:37:50 來源:億速云 閱讀:225 作者:小新 欄目:開發技術

這篇文章主要介紹python如何將爬取內容存入Excel,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

代碼:

# coding=UTF-8
'''
 function:爬取豆瓣top250的電影信息,并寫入Excel文件
'''
import requests
import re
from openpyxl import workbook # 寫入Excel表所用
from openpyxl import load_workbook # 讀取Excel表所用
from bs4 import BeautifulSoup as bs
import os
os.chdir('C:\Users\Administrator\Desktop') # 更改工作目錄為桌面
 
 
def getHtml(src):
 html = requests.get(src).content
 getData(html, src) # 首頁鏈接和其他頁不同,所以單獨獲取信息
 urls = re.findall('href="(.*filter=?)', html) # re獲取獲取跳轉鏈接的href
 for u in range(len(urls) - 2): # 匹配到的跳轉鏈接最后兩個重復,需去掉
  next_url = 'https://movie.douban.com/top250' + urls[u]
  html = requests.get(next_url).content
  getData(html, next_url)
 
 
def getData(html, num_url): # html:網頁源碼 ,num_url:頁面鏈接
 global ws # 全局工作表對象
 Name = [] # 存儲電影名
 Dr = [] # 存儲導演信息
 Ma = [] # 存儲主演信息
 Si = [] # 存儲簡介
 R_score = [] # 存儲評分
 R_count = [] # 存儲評論人數
 R_year = [] # 存儲年份
 R_area = [] # 存儲地區
 R_about = [] # 存儲劇情類型
 soup = bs(html, 'lxml')
 for n in soup.find_all('div', class_='hd'):
  # ts = n.contents[1].text # 得到電影的所有名稱
  ts = n.contents[1].text.strip().split('/')[0] # 得到電影中文名
  Name.append(ts)
 for p in soup.find_all('p', class_=''):
  infor = p.text.strip().encode('utf-8') #此處用utf-8編碼,以免下面查找 ‘主演'下標報錯
  ya = re.findall('[0-9]+.*\/?', infor)[0] # re得到年份和地區
  R_year.append(ya.split('/')[0]) # 得到年份
  R_area.append(ya.split('/')[1]) # 得到地區
  R_about.append(infor[infor.rindex('/') + 1:]) # rindex函數取最后一個/下標,得到劇情類型
  try:
   sub = infor.index('主演') # 取得主演下標
   Dr.append(infor[0:sub].split(':')[1]) # 得到導演信息
   mh = infor[sub:].split(':')[1] # 得到主演后面的信息
   Ma.append(re.split('[1-2]+', mh)[0]) # 正則切片得到主演信息
  except:
   print '無主演信息'
   Dr.append(infor.split(':')[1].split('/')[0])
   Ma.append('無介紹...')
 for r in soup.find_all('div', class_='star'):
  rs = r.contents # 得到該div的子節點列表
  R_score.append(rs[3].text) # 得到評分
  R_count.append(rs[7].text) # 得到評論人數
 for s in soup.find_all('span', 'inq'):
  Si.append(s.text) # 得到簡介
 if len(Si) < 25:
  for k in range(25 - len(Si)):
   Si.append('本頁有的電影沒簡介,建議查看核對,鏈接:' + num_url)
 
 for i in range(25): # 每頁25條數據,寫入工作表中
  ws.append([Name[i], R_year[i], R_area[i], R_about[i],
     Dr[i], Ma[i], R_score[i], R_count[i], Si[i]])
 
 
if __name__ == '__main__':
 # 讀取存在的Excel表測試
 #  wb = load_workbook('test.xlsx') #加載存在的Excel表
 #  a_sheet = wb.get_sheet_by_name('Sheet1') #根據表名獲取表對象
 #  for row in a_sheet.rows: #遍歷輸出行數據
 #   for cell in row: #每行的每一個單元格
 #    print cell.value,
 
 # 創建Excel表并寫入數據
 wb = workbook.Workbook() # 創建Excel對象
 ws = wb.active # 獲取當前正在操作的表對象
 # 往表中寫入標題行,以列表形式寫入!
 ws.append(['電影名', '年份', '地區', '劇情類型', '導演', '主演', '評分', '評論人數', '簡介'])
 src = 'https://movie.douban.com/top250'
 getHtml(src)
 wb.save('test2.xlsx') # 存入所有信息后,保存為filename.xlsx

代碼中已有不少注釋,這里說下爬取過程中遇到的小問題。

1.soup的contents方法,返回的是某標簽下的子節點列表,但剛開始總是取不到想要的值,輸出其長度后,有些傻眼..TM什么情況?有這么多的子節點嗎?較真的我又去數了幾遍,最后發現,它竟然連"換行"都算作是子節點!莫名地有點方...不知各位有沒有遇到過。

python如何將爬取內容存入Excel

如圖,我按列表下標標記,0,2,4,6,8是換行,但也被算作子節點...

2.還是contents方法,代碼中的 '#得到電影所有名稱' 處的代碼 n.contents[1]獲取的除了a標簽外,還有其下的span標簽,這是為何?它們算一個整體?

python如何將爬取內容存入Excel

3.對如下圖的電影信息處理時,出現了幾處錯誤,原因有以下幾點:

(1)部分電影沒有主演信息...

(2)主演信息為這樣'主演: ',就一個主演字樣,無內容

(3)部分電影沒有簡介

(4)當主演信息中沒有'...'時,獲取主演信息受阻

 解決方案:(1)(2)都是主演問題,判斷是否存在即可。(我以捕獲異常處理)

(3)是簡介問題,我無法給出具體哪部電影沒有簡介,但給了該電影所在的頁面鏈接,可訪問核查。(貌似有點笨)

(4)獲取受阻是因為后面沒有精確定位點,最后以re.split('[1-2]+')方法解決,匹配年份第一位作為分片點

python如何將爬取內容存入Excel

本次分享就到這兒了,最后,照舊放幾張結果圖吧。

python如何將爬取內容存入Excel

python如何將爬取內容存入Excel

以上是“python如何將爬取內容存入Excel”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

城固县| 水城县| 靖宇县| 深水埗区| 湖口县| 诸城市| 宜章县| 梅州市| 阳东县| 喀喇沁旗| 五家渠市| 海口市| 肥城市| 青海省| 将乐县| 岳普湖县| 溧水县| 泸定县| 行唐县| 华阴市| 沛县| 林州市| 资源县| 聂拉木县| 大港区| 广丰县| 阳信县| 招远市| 铁岭县| 怀柔区| 怀仁县| 恭城| 丹寨县| 平武县| 平邑县| 洞口县| 伊春市| 房产| 铜梁县| 桐梓县| 塔河县|