91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python并發爬蟲實用工具tomorrow實用解析

發布時間:2020-09-16 06:35:35 來源:腳本之家 閱讀:158 作者:python學習開發 欄目:開發技術

tomorrow是我最近在用的一個爬蟲利器,該模塊屬于第三方的一個模塊,使用起來非常的方便,只需要用其中的threads方法作為裝飾器去修飾一個普通的函數,既可以達到并發的效果,本篇將用實例來展示tomorrow的強大之處。后面將對tomorrow的實現原理做進一步的分析。

1.安裝第三方包

pip install requests_html #網絡請求包
pip install fake-useragent #獲取useragent包
pip install tomorrow

2.普通下載方式

在這里我們用20個電影網址進行測試,并獲取其標題,計算所用的時間

start=time.time()
for i in url_list:
   print(get_xpath(get_req(i),"http://title//text()"))
end=time.time()
print("普通方式花費時間",end-start)

get_req是我定義的訪問網絡的一個方法,get_xpath是為例使用xpath表達式獲取其結果,這里是獲取網址的標題。20個電影網址普通方式訪問的結果在8-9秒之間。

3.使用tomorrow以后

start2 = time.time()
req_list = []
for url in url_list:
  req = async_get_req(url)
  req_list.append(req)

for req in req_list:
  print(get_xpath(req, "http://title//text()"))
end2 = time.time()
print("并發后花費時間", end2 - start2)

如果我們想要使用tomorrow,就要盡量減少耗時操作,訪問網絡并等待其回應就是一個非常耗時的工作,在這里我們需要做的是,并發的時候除了訪問網絡不要做其他操作,然后我們把獲取的請求存一個列表,然后再去循環做其他操作,看不懂我說的沒關系,直接看下面代碼并嘗試幾次就明白了。

4.測試結果對比

來看程序的完整代碼:

import time
from requests_html import HTMLSession
from fake_useragent import UserAgent as ua
from tomorrow import threads

headers = {"User-Agent": ua().Chrome}
session = HTMLSession()
url_list = ["https://movie.douban.com",
      "http://www.1905.com/",
      "http://www.mtime.com/",
      "https://www.dy2018.com/",
      "http://dytt8.net",
      "https://www.piaohua.com/",
      "http://maoyan.com",
      "https://www.xigua110.com/",
      "https://www.vmovier.com/",
      "http://movie.kankan.com/",
      "https://107cine.com/",
      "http://movie.youku.com",
      "http://film.qq.com",
      "http://film.spider.com.cn",
      "https://dianying.taobao.com/",
      "http://www.wandafilm.com/",
      "http://www.dygang.net/",
      "http://www.bale.cn/",
      "http://dianying.2345.com/",
      "http://v.x2y4.com/"]


def get_req(url, timeout=10):
  req = session.get(url, headers=headers, timeout=timeout)
  if req.status_code == 200:
    return req


@threads(5)
def async_get_req(url, timeout=10):
  req = session.get(url, headers=headers, timeout=timeout)
  if req.status_code == 200:
    return req


def get_xpath(req, xpath_str):
  return req.html.xpath(xpath_str)[0].strip().replace("\n", "")


start=time.time()
for i in url_list:
   print(get_xpath(get_req(i),"http://title//text()"))
end=time.time()
print("普通方式花費時間",end-start)

start2 = time.time()
req_list = []
for url in url_list:
  req = async_get_req(url)
  req_list.append(req)

for req in req_list:
  print(get_xpath(req, "http://title//text()"))
end2 = time.time()
print("并發后花費時間", end2 - start2)

運行三次上面的程序記錄下每次的結果

第一次:
普通方式花費時間 7.883908271789551
并發后花費時間 2.2888755798339844
第二次:
普通方式花費時間 8.522203207015991
并發后花費時間 2.4674007892608643
第三次:
普通方式花費時間 9.062756061553955
并發后花費時間 2.8703203201293945

tomorrow使用起來很簡單,在普通的函數上面加個threads裝飾器即可以實現并發效果,括號中的數字是表示并發的次數,經過我的測試并不是并發次數越多越好,你需要選擇一個中間點,因為還會受到網速的影響,我覺得一般并發數5-10就好.

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持億速云。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

合川市| 德阳市| 荆门市| 腾冲县| 寻乌县| 湖北省| 龙海市| 依安县| 湄潭县| 宁阳县| 镇巴县| 万安县| 高雄市| 平和县| 江达县| 金平| 龙南县| 定结县| 杨浦区| 濮阳市| 阿瓦提县| 甘南县| 建阳市| 庐江县| 建宁县| 余姚市| 岳普湖县| 临漳县| 张家港市| 三门县| 宣武区| 甘孜| 邛崃市| 独山县| 罗源县| 吴江市| 紫云| 宜章县| 鹿泉市| 新兴县| 白山市|