91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python中的ProxyHandler處理器有什么用

發布時間:2020-09-24 09:55:55 來源:億速云 閱讀:545 作者:Leah 欄目:編程語言

Python中的ProxyHandler處理器有什么用?針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

在之前的文章中我們帶入了 opener 方法,接下來我們看一下 opener 應用中的 ProxyHandler 處理器(代理設置)。

使用代理IP,這是爬蟲/反爬蟲的第二大招,通常也是最好用的。

很多網站會檢測某一段時間某個IP的訪問次數(通過流量統計,系統日志等),如果訪問次數多的不像正常人,它會禁止這個IP的訪問。

所以我們可以設置一些代理服務器,每隔一段時間換一個代理,就算IP被禁止,依然可以換個IP繼續爬取。

urllib.request 中通過ProxyHandler來設置使用代理服務器,下面代碼說明如何使用自定義 opener 來使用代理:

import urllib.request

# 構建了兩個代理Handler,一個有代理IP,一個沒有代理IP
httpproxy_handler = urllib.request.ProxyHandler({"https": "27.191.234.69:9999"})
nullproxy_handler = urllib.request.ProxyHandler({})

# 定義一個代理開關
proxySwitch = True

# 通過 urllib.request.build_opener()方法使用這些代理Handler對象,創建自定義opener對象
# 根據代理開關是否打開,使用不同的代理模式
if proxySwitch:
    opener = urllib.request.build_opener(httpproxy_handler)
else:
    opener = urllib.request.build_opener(nullproxy_handler)

request = urllib.request.Request("http://www.baidu.com/")

# 1. 如果這么寫,只有使用opener.open()方法發送請求才使用自定義的代理,而urlopen()則不使用自定義代理。
response = opener.open(request)

# 2. 如果這么寫,就是將opener應用到全局,之后所有的,不管是opener.open()還是urlopen() 發送請求,都將使用自定義代理。
# urllib.request.install_opener(opener)
# response = urllib.request.urlopen(request)

# 獲取服務器響應內容
html = response.read().decode("utf-8")
 
# 打印字符串
print(html)

最終結果如下:

Python中的ProxyHandler處理器有什么用

在上面的代碼第 4 行,我們使用了一個免費的代理 IP,國內有很多免費的代理 IP 地址,如下:

西刺免費代理IP

快代理免費代理

Proxy360代理

全網代理IP

但是上面的免費代理只支持短期的,就是說在我們在短期爬取信息或者自己做測試可以去上面找可以使用的,但是如果要是長期的話我們需要自己購買代理 IP 比較穩妥。

為了避免我們的代理 IP 被封后爬取失敗,我們可以使用多個代理 Ip,然后不定時切換就可以了,如下:

import urllib.request
import random 
# 代理列表
proxy_list = [
    {"http": "27.191.234.69:9999"},
    {"http": "27.191.234.69:9999"},
    {"http": "27.191.234.69:9999"},
    {"http": "27.191.234.69:9999"},
]
# 隨機選擇一個代理
proxy = random.choice(proxy_list)
# 使用選擇的代理構建代理處理器對象
httpproxy_handler = urllib.request.ProxyHandler(proxy)

# 通過 urllib.request.build_opener()方法使用這些代理Handler對象,創建自定義opener對象
opener = urllib.request.build_opener(httpproxy_handler)
 
request = urllib.request.Request("http://www.baidu.com/")
response = opener.open(request)
html = response.read().decode("utf-8")
print(html)

接下來我們看一下自己購買的私密 IP 該如何使用代理。

import urllib.request
 
# 私密代理授權的賬戶
user = "user"
# 私密代理授權的密碼
passwd = "passwd"
# 私密代理 IP
proxyserver = "62.151.164.138:12816"
 
# 1. 構建一個密碼管理對象,用來保存需要處理的用戶名和密碼
passwdmgr = urllib.request.HTTPPasswordMgrWithDefaultRealm()

# 2. 添加賬戶信息,第一個參數realm是與遠程服務器相關的域信息,一般沒人管它都是寫None,后面三個參數分別是 代理服務器、用戶名、密碼
passwdmgr.add_password(None, proxyserver, user, passwd)
 
# 3. 構建一個代理基礎用戶名/密碼驗證的 ProxyBasicAuthHandler 處理器對象,參數是創建的密碼管理對象
#   注意,這里不再使用普通 ProxyHandler 類了
proxyauth_handler = urllib.request.ProxyBasicAuthHandler(passwdmgr)

# 4. 通過 build_opener()方法使用這些代理 Handler 對象,創建自定義 opener 對象,參數包括構建的 proxy_handler 和 proxyauth_handler
opener = urllib.request.build_opener(proxyauth_handler)

# 5. 構造Request 請求
request = urllib.request.Request("http://www.baidu.com/")

# 6. 使用自定義opener發送請求
response = opener.open(request)
 
# 7. 打印響應內容
html = response.read().decode("utf-8")
print(html)

免費開放代理一般會有很多人都在使用,而且代理有壽命短,速度慢,匿名度不高,HTTP/HTTPS支持不穩定等缺點(免費沒好貨)。

專業爬蟲工程師或爬蟲公司會使用高品質的私密代理,這些代理通常需要找專門的代理供應商購買,再通過用戶名/密碼授權使用(舍不得孩子套不到狼)。

關于Python中的ProxyHandler處理器有什么用問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

潮安县| 雷州市| 莆田市| 聊城市| 米易县| 双鸭山市| 南充市| 恩平市| 临潭县| 喀什市| 南郑县| 龙州县| 虹口区| 罗江县| 漠河县| 宁强县| 建昌县| 班戈县| 同江市| 台江县| 珲春市| 河间市| 柘荣县| 吴川市| 山丹县| 临潭县| 葫芦岛市| 湖口县| 台州市| 廉江市| 桑植县| 武威市| 蒙自县| 大姚县| 岳阳市| 嘉峪关市| 铁岭县| 大兴区| 盐津县| 天台县| 松江区|