您好,登錄后才能下訂單哦!
其實在抓取數據時,如果有大量的離散賬號和離散IP的話,抓取數據就問題不大了。但是老猿相信大部分的爬蟲選手們都沒有這么多的資源,所以就會絞盡腦汁研究和各種嘗試對方的訪問控制策略,如果始終無法破局,這時就要跳出來想下其他辦法,比如多使用一下對方的產品,包括APP,網站,微信等,抓包看看他們之間的URL有沒有關聯,訪問控制策略是否一致等,有時你會找到新的突破口。
曾經我想要某職業社交APP里的一些用戶詳細頁的信息用來做分析,但是面臨如下問題:
就注冊了10個該APP賬號,模擬登錄后一天只能抓1000千多個,還有好些數據不全(因為沒有關注對方), 實在離俺想要的數據量相差較遠。
總結上面的問題就是沒有足夠多的賬號,就算賬號足夠多,每個賬號和每個ip也有抓取限制。
于是就把該產品的APP,微信,網頁里里外外都翻了一遍,能點的地方都去點一下看看。
有了新的發現:
分析完后,舒緩了很多,得出新的抓取思路,就是:
使用10個賬號按一定頻次通過APP不停的獲取每個用戶詳細頁分享到微信的URL,讓另外一個程序模仿微信的user-agent不停的訪問這些分享到微信的URL(要使用adsl撥號來解決單個IP訪問頻率控制問題)。
這樣通過app加微信的方式解決了對賬號的限制問題,實現了曲線救國。
后來就發現好些抓取問題都有這種解決思路,跟我們在網絡爬蟲小偏方之一里講的,有的網站為了SEO流量,而把referer來自百度的訪問控制放寬了一樣。
有的產品為了微信的流量(分享到微信里的頁面可以直接打開,點擊其他頁面時再提示要注冊登錄),而對來自微信點擊訪問控制放寬了。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。