91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

使用Python爬蟲怎么導出CSV文件

發布時間:2021-06-11 17:57:30 來源:億速云 閱讀:187 作者:Leah 欄目:開發技術

使用Python爬蟲怎么導出CSV文件,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

核心代碼:

 ####寫入Csv文件中
      with open(self.CsvFileName, 'wb') as csvfile:
        spamwriter = csv.writer(csvfile, dialect='excel')
        #設置標題
        spamwriter.writerow(["游戲賬號","用戶類型","游戲名稱","渠道","充值類型","充值金額","返利金額","單號","日期"])
        #將CsvData中的數據循環寫入到CsvFileName文件中
        for item in self.CsvData:
          spamwriter.writerow(item)

完整代碼:

# coding=utf-8
import urllib
import urllib2
import cookielib
import re
import csv
import sys
 
class Pyw():
  #初始化數據
  def __init__(self):
    #登錄的Url地址
    self.LoginUrl="http://v.pyw.cn/login/check"
    #所要獲取的Url地址
    self.PageUrl="http://v.pyw.cn/Data/accountdetail/%s"
    # 傳輸的數據:用戶名、密碼、是否記住用戶名
    self.PostData = urllib.urlencode({
      "username": "15880xxxxxx",
      "password": "a123456",
      "remember": "1"
    })
    #第幾筆記錄
    self.PageIndex=0;
    #循環獲取共4頁內容
    self.PageTotal=1
    #正則解析出tr
    self.TrExp=re.compile("(?isu)<tr[^>]*>(.*?)</tr>")
    #正則解析出td
    self.TdExp = re.compile("(?isu)<td[^>]*>(.*?)</td>")
    #創建cookie
    self.cookie = cookielib.CookieJar()
    #構建opener
    self.opener=urllib2.build_opener(urllib2.HTTPCookieProcessor(self.cookie))
    #解析頁面總頁數
    self.Total=4
    #####設置csv文件
    self.CsvFileName="Pyw.csv"
    #####存儲Csv數據
    self.CsvData=[]
 
   #解析網頁中的內容
  def GetPageItem(self,PageHtml):
    #循環取出Table中的所有行
    for row in self.TrExp.findall(PageHtml):
      #取出當前行的所有列
      coloumn=self.TdExp.findall(row)
      #判斷符合的記錄
      if len(coloumn) == 9:
        # print "游戲賬號:%s" % coloumn[0].strip()
        # print "用戶類型:%s" % coloumn[1].strip()
        # print "游戲名稱:%s" % coloumn[2].strip()
        # print "渠道:%s" % coloumn[3].strip()
        # print "充值類型:%s" % coloumn[4].strip()
        # print "充值金額:%s" % coloumn[5].strip().replace("¥", "")
        # print "返利金額:%s" % coloumn[6].strip().replace("¥", "")
        # print "單號:%s" % coloumn[7].strip()
        # print "日期:%s" % coloumn[8].strip()
        #拼湊行數據
        d=[coloumn[0].strip(),
          coloumn[1].strip(),
          coloumn[2].strip(),
          coloumn[3].strip(),
          coloumn[4].strip(),
          coloumn[5].strip().replace("¥", ""),
          coloumn[6].strip().replace("¥", ""),
          coloumn[7].strip(),
          coloumn[8].strip()]
        self.CsvData.append(d)
 
  #模擬登錄并獲取頁面數據
  def GetPageHtml(self):
    try:
      #模擬登錄
      request=urllib2.Request(url=self.LoginUrl,data=self.PostData)
      ResultHtml=self.opener.open(request)
      #開始執行獲取頁面數據
      while self.PageTotal<=self.Total:
        #動態拼湊所要解析的Url
        m_PageUrl = self.PageUrl % self.PageTotal
        #計算當期第幾頁
        self.PageTotal = self.PageTotal + 1
        #獲取當前解析頁面的所有內容
        ResultHtml=self.opener.open(m_PageUrl)
        #解析網頁中的內容
        self.GetPageItem(ResultHtml.read())
 
      ####寫入Csv文件中
      with open(self.CsvFileName, 'wb') as csvfile:
        spamwriter = csv.writer(csvfile, dialect='excel')
        #設置標題
        spamwriter.writerow(["游戲賬號","用戶類型","游戲名稱","渠道","充值類型","充值金額","返利金額","單號","日期"])
        #將CsvData中的數據循環寫入到CsvFileName文件中
        for item in self.CsvData:
          spamwriter.writerow(item)
 
      print "成功導出CSV文件!"
    except Exception,e:
      print "404 error!%s" % e
#實例化類
p=Pyw()
#執行方法
p.GetPageHtml()

導出結果

使用Python爬蟲怎么導出CSV文件

關于使用Python爬蟲怎么導出CSV文件問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

定西市| 衡南县| 民权县| 内丘县| 陇南市| 广昌县| 乌审旗| 开鲁县| 灵川县| 车致| 樟树市| 太保市| 郁南县| 乌鲁木齐县| 吉安市| 阳朔县| 旬阳县| 库尔勒市| 长丰县| 新干县| 垦利县| 敖汉旗| 灵寿县| 霍林郭勒市| 安吉县| 阳东县| 濮阳县| 平潭县| 平阳县| 平安县| 墨脱县| 万安县| 河曲县| 历史| 舞钢市| 兴安盟| 库车县| 徐闻县| 保德县| 中牟县| 阳江市|