91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬取表格的步驟

發布時間:2020-07-03 16:42:05 來源:億速云 閱讀:473 作者:清晨 欄目:編程語言

小編給大家分享一下Python爬取表格的步驟,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討方法吧!

Python爬取表格的步驟:

1、檢查url地址,用raise_for_status()檢查url地址;

2、爬取資源,用BeautifulSoup()爬取數據,并且用find_all('tr')抓取其中的表格;

3、保存資源,用write()將表格保存到指定目錄。

from bs4 import BeautifulSoup 
import requests 
import csv 
import bs4 
#檢查url地址 
def check_link(url): 
 try: 
  r = requests.get(url) 
  r.raise_for_status() 
  r.encoding = r.apparent_encoding 
  return r.text 
 except: 
  print('無法鏈接服務器!!!') 
#爬取資源 
def get_contents(ulist,rurl): 
 soup = BeautifulSoup(rurl,'lxml') 
 trs = soup.find_all('tr') 
 for tr in trs: 
  ui = [] 
  for td in tr: 
   ui.append(td.string) 
  ulist.append(ui) 
#保存資源 
def save_contents(urlist): 
 with open("D:/2016年中國企業500強排行榜.csv",'w') as f: 
  writer = csv.writer(f) 
  writer.writerow(['2016年中國企業500強排行榜']) 
  for i in range(len(urlist)): 
   writer.writerow([urlist[i][1],urlist[i][3],urlist[i][5]]) 
def main(): 
 urli = [] 
 url = "http://www.maigoo.com/news/463071.html"
 rs = check_link(url) 
 get_contents(urli,rs) 
 save_contents(urli) 
main()

運行結果:

Python爬取表格的步驟

看完了這篇文章,相信你對Python爬取表格的步驟有了一定的了解,想了解更多相關知識,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

大足县| 沾化县| 大渡口区| 吴桥县| 棋牌| 波密县| 通许县| 友谊县| 杭锦旗| 汉川市| 吉林省| 饶平县| 苏尼特右旗| 靖西县| 阿合奇县| 平和县| 天全县| 北辰区| 石狮市| 田东县| 道孚县| 宁德市| 临泉县| 衡南县| 沂源县| 淄博市| 沈阳市| 社会| 临泽县| 保亭| 从江县| 龙山县| 鄢陵县| 休宁县| 乌兰察布市| 银川市| 宝丰县| 青铜峡市| 江西省| 萨迦县| 汝城县|