91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python源代碼與檢查元素不一致怎么辦

發布時間:2020-08-06 13:56:56 來源:億速云 閱讀:836 作者:小新 欄目:編程語言

小編給大家分享一下Python源代碼與檢查元素不一致怎么辦,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!

針對源代碼和檢查元素不一致的網頁爬蟲——利用Selenium、PhantomJS、bs4爬取12306的列車途徑站信息

整個程序的核心難點在于上次豆瓣爬蟲針對的是靜態網頁,源代碼和檢查元素內容相同;而在12306的查找搜索過程中,其網頁發生變化(出現了查找到的數據),這個過程是動態的,使得我們在審查元素中能一一對應看到的表格數據沒有顯示在源代碼中。這也是這次12306爬蟲和上次豆瓣書單爬蟲的最大不同點。

選擇使用Selenium的PhantomJS模擬瀏覽器爬取源代碼,這樣獲取到的datas包含了我需要的(查找搜索出的)途徑站數據。

暫時把整個程序分為了這幾個部分:

(1)提取列車Code和No信息;

(2)找到url規律,根據Code和No變化實現多個網頁數據爬取;

(3)使用PhantomJS模擬瀏覽器爬取源代碼;

(4)用bs4解析源代碼,獲取所需的途徑站數據;

(5)用csv庫存儲獲得的數據。

整體使用面向過程的書寫方式。

(1)values_get()函數實現了從已有存儲了列車信息的csv中逐次提取Code和No。(在這里有點刻意追求面向過程的函數,設置了每次提取都openfile再close。所以使用了tell一次readline完的游標位置,再seek次游標位置到下一次提取位置,實現關閉file后仍然可以接著上一次結束的seek位置繼續操作)

(2)olddriver()函數包含PhantomJS和bs4兩個部分。利用format來控制多個url,用PhantomJS、driver代替requests爬取網頁源代碼driver.get(url)。service_args可以配置模擬瀏覽器(優化加速),set_page_load_timeout()和set_script_timeout()+try except('window.stop()')設置超時(還未用上,存疑),最后用driver.quit()關閉使用完的PhantomJS避免內存爆炸。*這里存在很多優化模擬瀏覽器的方法,除了上述的配置、超時、quit,還包括在循環外提前打開PhantomJS來實現程序運行時間加速等方法,筆者還未理解透這些方法。這里貼出優化的參考鏈接:①https://blog.csdn.net/weixin_40284075/article/details/87190040②https://www.jianshu.com/p/8ec70859ae03還有PhantomJS的使用攻略①https://www.cnblogs.com/miqi1992/p/8093958.html②https://www.cnblogs.com/lizm166/p/8360388.html

為什么使用已經被Selenium拋棄的PhantomJS而不使用Headless Chrome?筆者也曾嘗試過使用無頭chrome,但爬到的源代碼仍不包含我所需tbody數據。

丟失數據的源代碼長這樣(它只有tbody標簽,沒有標簽內的數據)。

Python源代碼與檢查元素不一致怎么辦

而檢查元素里可以看到所需數據出現在tbody內:

Python源代碼與檢查元素不一致怎么辦

雖然用PhantomJS確實可以爬取到所需的tbody數據,但是在后來循環url爬取多個列車信息時,可能是因為網站有反爬蟲措施,或是PhantomJS的不穩定,導致了經常會出現丟失數據的情況(PhantomJS的作用失效了)。所以我添加了一句if datas==[],遞歸olddriver()來確保能爬到這班列車的信息。如圖,失敗率仍然很高。

Python源代碼與檢查元素不一致怎么辦

(3)最后是data_write_csv()寫入數據到csv,這里用csv庫直接把列表變為了csv文件(列表中的多個列表就是多行數據),以后多嘗試用一下csv庫,還是很好用的。

(4)在主程序調用各個函數時,要注意global全局變量的使用、函數return參數給其他函數使用。

(5)最后是幾點自己的建議和猜想。首先如果12306真的有反爬蟲,我們可以嘗試像requests一樣的偽裝(在driver里沒刻意偽裝)或是換其他的網站來爬取。其次多注意:爬取網頁查詢搜索數據的方法,網頁跳轉等(或簡易成爬取多個網頁數據,如本例)。還有PhantomJS和headless Chrome,按理來說headless Chrome不會出現這樣的錯誤。最后是提升爬蟲運行速度的方法,(這次的爬取速度實在太慢了,10條信息平均要3分鐘才能成功獲得),除了對模擬瀏覽器的配置和優化,以及代碼本身的優化(如file文件一直開著,不提取一次數據就開關file一次),我們是否可以嘗試其他的源代碼.get(url)獲取方式?嘗試多線程加速?嘗試云服務器

代碼:

  import urllib3
  #import requests
  from selenium import webdriver
  from bs4 import BeautifulSoup
  import csv
  import time
   
  start = time.time()
   
  def values_get():#通過設置游標來實現:從上一次結束的地方繼續讀取
      file = open('Code.csv','r')
      global seekloc#全局游標
      file.seek(seekloc)#設置游標位置
      line = file.readline()
      '''
      if line == '':
          break
      '''
      if line == '':
          seekloc = -1
      twovalue = line.strip('\n').split(',')#csv轉化為list
      code, no = twovalue[0], twovalue[1]
      seekloc = file.tell()#讀取結束時游標的位置
      file.close()
      return code, no#code是列車號,no是長串
  
  def olddriver():
  
      #下文中將PhantomJS移除循環未果,任選擇在循環中打開。
      service_args=[]#PhantomJS優化
      service_args.append('--load-images=no')  ##關閉圖片加載
      driver = webdriver.PhantomJS(service_args=service_args)
  
      driver.set_page_load_timeout(10)  # 設置頁面加載超時
      driver.set_script_timeout(10)  # 設置頁面異步js執行超時
      
      url = f'https://kyfw.12306.cn/otn/queryTrainInfo/init?train_no={no}&station_train_code={code}&date=2019-07-16'
      try:
          driver.get(url)
          data = driver.page_source
      except:
          print('Timeout!')
          driver.execute_script('window.stop()')
      driver.quit()#這句可讓PhantomJS關閉
      #return data
  
  #def beauti4soup():
      #global data
      soup = BeautifulSoup(data,'lxml')
      table_datas = soup.find('table',{'id':'queryTable'})
      datas = table_datas.findAll('tbody')[1].findAll('tr')
      if datas == []:
          print('Failed... Restart!')
          olddriver()
          #beauti4soup()
      else:
          print("It's OK! ")
      midways = []
      for data in datas:
          midway = data.find('div',{'class':'t-station'}).get_text()#單個列車的信息爬取
          midways.append(midway)
      answer.append(midways)
      return answer
  
  def data_write_csv(file_name,datas):
      file_csv = open(file_name,'w+')
      #writer = csv.writer(file_csv,delimiter=',',quotechar=' ',quoting=csv.QUOTE_MINIMAL)csv庫用法存疑
      writer = csv.writer(file_csv)
      for data in datas:
          writer.writerow(data)
  
  
  #---主程序開始---#
  
  seekloc = 0#初始化游標
  values_get()#運行一次values_get()把csv無用的第一行過濾掉
  answer = []#存儲所有途徑站信息的list
  '''
  #這里三行嘗試將PhantomJS放在循環外,提前開啟,減少加載時間。
  #結果:運行時間確實大幅減短,但遇到一次failed之后就一直failed。
  #參考鏈接:https://blog.csdn.net/qingwuh/article/details/81583801
  service_args=[]#PhantomJS優化
  service_args.append('--load-images=no')  ##關閉圖片加載
  driver = webdriver.PhantomJS(service_args=service_args)
  '''
  j = 1
  while True:#循環爬取
      code, no = values_get()
      if j > 10:#十個一循環的測試
          break
      #if seekloc == -1:
      #    break
      answer = olddriver()
      j += 1 
  
  data_write_csv('Route.csv',answer)#存儲數據 
  
  #---主程序結束---#
  end = time.time()
   print('Running time: {} Seconds'.format(end-start))
   print("=================================")

看完了這篇文章,相信你對Python源代碼與檢查元素不一致怎么辦有了一定的了解,想了解更多相關知識,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

南川市| 卓尼县| 当涂县| 石河子市| 泊头市| 札达县| 平邑县| 阜平县| 丹棱县| 辽阳市| 乐都县| 鸡西市| 革吉县| 孝义市| 景德镇市| 精河县| 宁城县| 肥城市| 富民县| 措勤县| 黄平县| 大英县| 会泽县| 凤冈县| 大邑县| 安宁市| 台前县| 平和县| 乡宁县| 喀什市| 南郑县| 商丘市| 郎溪县| 沁源县| 台山市| 浏阳市| 兰溪市| 江孜县| 黄山市| 北海市| 徐水县|