91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

使用Scrapy框架時怎么應對普通的反爬機制

發布時間:2021-11-17 14:55:52 來源:億速云 閱讀:527 作者:iii 欄目:web開發

這篇文章主要講解了“使用Scrapy框架時怎么應對普通的反爬機制”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“使用Scrapy框架時怎么應對普通的反爬機制”吧!

header檢驗

最簡單的反爬機制,就是檢查HTTP請求的Headers信息,包括User-Agent, Referer、Cookies等。

User-Agent

User-Agent是檢查用戶所用客戶端的種類和版本,在Scrapy中,通常是在下載器中間件中進行處理。比如在setting.py中建立一個包含很多瀏覽器User-Agent的列表,然后新建一個random_user_agent文件:

class RandomUserAgentMiddleware(object):     @classmethod     defprocess_request(cls, request, spider):         ua = random.choice(spider.settings['USER_AGENT_LIST'])         if ua:             request.headers.setdefault('User-Agent', ua)

這樣就可以在每次請求中,隨機選取一個真實瀏覽器的User-Agent。

Referer

Referer是檢查此請求由哪里來,通常可以做圖片的盜鏈判斷。在Scrapy中,如果某個頁面url是通過之前爬取的頁面提取到,Scrapy會自動把之前爬取的頁面url作為Referfer。也可以通過上面的方式自己定義Referfer字段。

Cookies

網站可能會檢測Cookie中session_id的使用次數,如果超過限制,就觸發反爬策略。所以可以在Scrapy中設置 COOKIES_ENABLED =  False 讓請求不帶Cookies。

也有網站強制開啟Cookis,這時就要麻煩一點了。可以另寫一個簡單的爬蟲,定時向目標網站發送不帶Cookies的請求,提取響應中Set-cookie字段信息并保存。爬取網頁時,把存儲起來的Cookies帶入Headers中。

X-Forwarded-For

在請求頭中添加X-Forwarded-For字段,將自己申明為一個透明的代理服務器,一些網站對代理服務器會手軟一些。

X-Forwarded-For頭一般格式如下

X-Forwarded-For: client1, proxy1, proxy2

這里將client1,proxy1設置為隨機IP地址,把自己的請求偽裝成代理的隨機IP產生的請求。然而由于X-Forwarded-For可以隨意篡改,很多網站并不會信任這個值。

限制IP的請求數量

如果某一IP的請求速度過快,就觸發反爬機制。當然可以通過放慢爬取速度繞過,這要以爬取時間大大增長為代價。另一種方法就是添加代理。

很簡單,在下載器中間件中添加:

request.meta['proxy'] = 'http://' + 'proxy_host' + ':' + proxy_port

然后再每次請求時使用不同的代理IP。然而問題是如何獲取大量的代理IP?

可以自己寫一個IP代理獲取和維護系統,定時從各種披露免費代理IP的網站爬取免費IP代理,然后定時掃描這些IP和端口是否可用,將不可用的代理IP及時清理。這樣就有一個動態的代理庫,每次請求再從庫中隨機選擇一個代理。然而這個方案的缺點也很明顯,開發代理獲取和維護系統本身就很費時費力,并且這種免費代理的數量并不多,而且穩定性都比較差。如果必須要用到代理,也可以去買一些穩定的代理服務。這些服務大多會用到帶認證的代理。

在requests庫中添加帶認證的代理很簡單,

proxies = {     "http": "http://user:pass@10.10.1.10:3128/", }

然而Scrapy不支持這種認證方式,需要將認證信息base64編碼后,加入Headers的Proxy-Authorization字段:

importbase64   # Set the location of the proxy proxy_string = choice(self._get_proxies_from_file('proxies.txt')) # user:pass@ip:port proxy_items = proxy_string.split('@') request.meta['proxy'] = "http://%s" % proxy_items[1]   # setup basic authentication for the proxy user_pass=base64.encodestring(proxy_items[0]) request.headers['Proxy-Authorization'] = 'Basic ' + user_pass

動態加載

現在越來越多的網站使用ajax動態加載內容,這時候可以先截取ajax請求分析一下,有可能根據ajax請求構造出相應的API請求的URL就可以直接獲取想要的內容,通常是json格式,反而還不用去解析HTML。

然而,很多時候ajax請求都會經過后端鑒權,不能直接構造URL獲取。這時就可以通過PhantomJS+Selenium模擬瀏覽器行為,抓取經過js渲染后的頁面。

需要注意的是,使用Selenium后,請求不再由Scrapy的Downloader執行,所以之前添加的請求頭等信息都會失效,需要在Selenium中重新添加

headers = {...} for key, valuein headers.iteritems():     webdriver.DesiredCapabilities.PHANTOMJS['phantomjs.page.customHeaders.{}'.format(key)] = value

另外,調用PhantomJs需要指定PhantomJs的可執行文件路徑,通常是將該路徑添加到系統的path路徑,讓程序執行時自動去path中尋找。我們的爬蟲經常會放到crontab中定時執行,而crontab中的環境變量和系統的環境變量不同,所以就加載不到PhamtonJs需要的路徑,所以***是在申明時指定路徑:

driver = webdriver.PhantomJS(executable_path='/usr/local/bin/phantomjs')

感謝各位的閱讀,以上就是“使用Scrapy框架時怎么應對普通的反爬機制”的內容了,經過本文的學習后,相信大家對使用Scrapy框架時怎么應對普通的反爬機制這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

仙游县| 巴南区| 稷山县| 新津县| 吉木萨尔县| 宁武县| 五寨县| 阳原县| 拉孜县| 蚌埠市| 德清县| 徐水县| 东安县| 五大连池市| 体育| 偃师市| 盐池县| 华安县| 新兴县| 静海县| 全州县| 麻栗坡县| 牙克石市| 肥西县| 宿州市| 仪征市| 泽普县| 吐鲁番市| 大石桥市| 新泰市| 涟水县| 农安县| 舟曲县| 蓝山县| 庄河市| 麻栗坡县| 那坡县| 昌黎县| 措勤县| 尚义县| 平舆县|