您好,登錄后才能下訂單哦!
本篇內容介紹了“Python怎么禁用request庫請求”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
一個非常強的反爬蟲方案 —— 禁用所有 HTTP 1.x 的請求!
現在很多爬蟲庫其實對 HTTP/2.0 支持得不好,比如大名鼎鼎的 Python 庫 —— requests,到現在為止還只支持 HTTP/1.1,啥時候支持 HTTP/2.0 還不知道。
Scrapy 框架最新版本 2.5.0(2021.04.06 發布)加入了對 HTTP/2.0 的支持,但是官網明確提示,現在是實驗性的功能,不推薦用到生產環境,原文如下:
“HTTP/2 support in Scrapy is experimental, and not yet recommended for production environments. Future Scrapy versions may introduce related changes without a deprecation period or warning.
”
插一句,Scrapy 中怎么支持 HTTP/2.0 呢?在 settings.py 里面換一下 Download Handlers 即可:
DOWNLOAD_HANDLERS = {
'https': 'scrapy.core.downloader.handlers.http2.H2DownloadHandler',
}
當前 Scrapy 的 HTTP/2.0 實現的已知限制包括:
不支持 HTTP/2.0 明文(h3c),因為沒有主流瀏覽器支持未加密的 HTTP/2.0。
沒有用于指定最大幀大小大于默認值 16384 的設置,發送更大幀的服務器的連接將失敗。
不支持服務器推送。
不支持bytes_received
和 headers_received
信號。
關于其他的一些庫,也不必多說了,對 HTTP/2.0 的支持也不好,目前對 HTTP/2.0 支持得還可以的有 hyper 和 httpx,后者更加簡單易用一些。
所以,你想到反爬蟲方案了嗎?
如果我們禁用所有的 HTTP/1.x 的請求,是不是能通殺掉一大半爬蟲?requests 沒法用了,Scrapy 除非升級到最新版本才能勉強用個實驗性版本,其他的語言也不用多說,也會殺一大部分。
而瀏覽器對 HTTP/2.0 的支持現在已經很好了,所以不會影響用戶瀏覽網頁的體驗。
那就讓我們來吧!
這個怎么做呢?其實很簡單,在 Nginx 里面配置一下就好了,主要就是加這么個判斷就行了:
if ($server_protocol !~* "HTTP/2.0") { return 444; }
就是這么簡單,這里 $server_protocol
就是傳輸協議,其結果目前有三個:HTTP/1.0
、HTTP/1.1
和 HTTP/2.0
,另外判斷條件我們使用了 !~*
,意思就是不等于,這里的判斷條件就是,如果不是 HTTP/2.0
,那就直接返回 444 狀態碼,444
一般代表 CONNECTION CLOSED WITHOUT RESPONSE,就是不返回任何結果關閉連接。
我的服務是在 Kubernetes 里面運行的,所以要加這個配置還得改下 Nginx Ingress 的配置,不過還好 https://kubernetes.github.io/ingress-nginx/user-guide/nginx-configuration/annotations/ 預留了一個配置叫做 nginx.ingress.kubernetes.io/server-snippet
,利用它我們可以自定義 Nginx 的判定邏輯。
官方用法如下:
apiVersion: networking.k8s.io/v1beta1 kind: Ingress metadata: annotations: nginx.ingress.kubernetes.io/server-snippet: | set $agentflag 0; if ($http_user_agent ~* "(Mobile)" ){ set $agentflag 1; } if ( $agentflag = 1 ) { return 301 https://m.example.com; }
所以這里,我們只需要改成剛才的配置就好了:
apiVersion: networking.k8s.io/v1beta1 kind: Ingress metadata: annotations: nginx.ingress.kubernetes.io/server-snippet: | if ($server_protocol !~* "HTTP/2.0") { return 444; }
大功告成!
配置完成了,示例網站是:https://spa16.scrape.center/
我們在瀏覽器中看下效果:
可以看到所有請求都是走的 HTTP/2.0,頁面完全正常加載。
然而,我們使用 requests 來請求一下:
import requests response = requests.get('https://spa16.scrape.center/') print(response.text)
非常歡樂的報錯:
Traceback (most recent call last): ... raise RemoteDisconnected("Remote end closed connection without" http.client.RemoteDisconnected: Remote end closed connection without response During handling of the above exception, another exception occurred: Traceback (most recent call last): ... raise MaxRetryError(_pool, url, error or ResponseError(cause)) requests.packages.urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host='spa16.scrape.center', port=443): Max retries exceeded with url: / (Caused by ProxyError('Cannot connect to proxy.', RemoteDisconnected('Remote end closed connection without response'))) During handling of the above exception, another exception occurred: Traceback (most recent call last): ... requests.exceptions.ProxyError: HTTPSConnectionPool(host='spa16.scrape.center', port=443): Max retries exceeded with url: / (Caused by ProxyError('Cannot connect to proxy.', RemoteDisconnected('Remote end closed connection without response')))
如果你用 requests,無論如何都不行的,因為它就不支持 HTTP/2.0。
那我們換一個支持 HTTP/2.0 的庫呢?比如 httpx,安裝方法如下:
pip3 install 'httpx[http2]'
注意,Python 版本需要在 3.6 及以上才能用 httpx。
安裝好了之后測試下:
import httpx client = httpx.Client(http2=True) response = client.get('https://spa16.scrape.center/') print(response.text)
結果如下:
<!DOCTYPE html><html lang=en><head><meta charset=utf-8><meta http-equiv=X-UA-Compatible content="IE=edge"><meta name=viewport content="width=device-width,initial-scale=1"><meta name=referrer content=no-referrer><link rel=icon href=/favicon.ico><title>Scrape | Book</title><link href=/css/chunk-50522e84.e4e1dae6.css rel=prefetch><link href=/css/chunk-f52d396c.4f574d24.css rel=prefetch><link href=/js/chunk-50522e84.6b3e24aa.js rel=prefetch><link href=/js/chunk-f52d396c.f8f41620.js rel=prefetch><link href=/css/app.ea9d802a.css rel=preload as=style><link href=/js/app.b93891e2.js rel=preload as=script><link href=/js/chunk-vendors.a02ff921.js rel=preload as=script><link href=/css/app.ea9d802a.css rel=stylesheet></head><body><noscript><strong>We're sorry but portal doesn't work properly without JavaScript enabled. Please enable it to continue.</strong></noscript><div id=app></div><script src=/js/chunk-vendors.a02ff921.js></script><script src=/js/app.b93891e2.js></script></body></html>
可以看到,HTML 就成功被我們獲取到了!這就是 HTTP/2.0 的魔法!
我們如果把 http2
參數設置為 False 呢?
import httpx client = httpx.Client(http2=False) response = client.get('https://spa16.scrape.center/') print(response.text)
一樣很不幸:
Traceback (most recent call last): ... raise RemoteProtocolError(msg) httpcore.RemoteProtocolError: Server disconnected without sending a response. The above exception was the direct cause of the following exception: ... raise mapped_exc(message) from exc httpx.RemoteProtocolError: Server disconnected without sending a response.
所以,這就印證了,只要 HTTP/1.x 通通沒法治!可以給 requests 燒香了!
“Python怎么禁用request庫請求”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。