91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python反爬蟲策略是什么

發布時間:2020-08-13 15:34:30 來源:億速云 閱讀:216 作者:小新 欄目:編程語言

這篇文章主要介紹python反爬蟲策略是什么,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

1、從用戶請求的Headers反爬蟲是最常見的反爬蟲策略。

偽裝headers。很多網站都會對Headers的User-Agent進行檢測,還有一部分網站會對Referer進行檢測(一些資源網站的防盜鏈就是檢測Referer)。如果遇到了這類反爬蟲機制,可以直接在爬蟲中添加Headers,將瀏覽器的User-Agent復制到爬蟲的Headers中;或者將Referer值修改為目標網站域名[評論:往往容易被忽略,通過對請求的抓包分析,確定referer,在程序中模擬訪問請求頭中添加]。對于檢測Headers的反爬蟲,在爬蟲中修改或者添加Headers就能很好的繞過。

2、基于用戶行為反爬蟲

還有一部分網站是通過檢測用戶行為,例如:同一IP短時間內多次訪問同一頁面,或者同一賬戶短時間內多次進行相同操作。這種防爬,需要有足夠多的ip來應對。

大多數網站都是前一種情況,對于這種情況,使用IP代理就可以解決。可以專門寫一個爬蟲,爬取網上公開的代理ip,檢測后全部保存起來。有了大量代理ip后可以每請求幾次更換一個ip,這在requests或者urllib中很容易做到,這樣就能很容易的繞過第一種反爬蟲。

編寫爬蟲代理:

步驟:

1.參數是一個字典{'類型':'代理ip:端口號'}

proxy_support=urllib.request.ProxyHandler({})

2.定制、創建一個opener

opener=urllib.request.build_opener(proxy_support)

3.安裝opener

urllib.request.install_opener(opener)

4.調用opener

opener.open(url)

以上是python反爬蟲策略是什么的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

蓬莱市| 高尔夫| 若尔盖县| 即墨市| 汨罗市| 遂溪县| 延长县| 云龙县| 新余市| 类乌齐县| 沙田区| 盐源县| 太湖县| 读书| 漳平市| 威宁| 正蓝旗| 新乡县| 阿坝| 抚松县| 萍乡市| 黔江区| 林甸县| 延吉市| 绥阳县| 赤水市| 东宁县| 乐平市| 临朐县| 金平| 马尔康县| 仁怀市| 出国| 绵竹市| 沾益县| 全州县| 乌兰浩特市| 宁阳县| 冀州市| 鄂温| 阳谷县|