您好,登錄后才能下訂單哦!
本篇內容介紹了“python爬蟲怎么利用requests制作代理池s”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
爬取代理然后驗證代理,將可用代理放入txt文件。
import requests
from scrapy import Selector
start_url = 'http://www.89ip.cn/index_1.html'
url = 'http://www.89ip.cn/index_{}.html'
headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/78.0.3904.108 Safari/537.36'}
class MyProxy(object):
def GetPage(self,url):#頁面源碼獲取
response = requests.get(url=url,headers=headers)
text = response.text
return text
def GetInfo(self,text):#頁面信息獲取
selector = Selector(text=text)
FindTable = selector.xpath('//div[@class="layui-form"]/table/tbody/tr')
for proxy in FindTable:
ip = "".join(proxy.xpath('.//td[1]/text()').get()).replace('\t','').replace('\n','')
port = "".join(proxy.xpath('.//td[2]/text()').get()).replace('\t','').replace('\n','')
print(ip,port)
self.TestIP(ip,port)
def TabPage(self,text):#切換頁面
selector = Selector(text=text)
page = selector.xpath('//*[@id="layui-laypage-1"]/a[8]/@data-page').get()
self.new_url = url.format(page)
def TestIP(self,ip,port):
try:
response = requests.get(url='https://www.baidu.com/',headers=headers,proxies={"http":"{}:{}".format(ip,port)})
print(response.status_code)
if response.status_code<200 or response.status_code>200:
print("訪問失敗")
else:鄭州人流醫院哪家好 http://mobile.zyyyzz.com/
self.file = open('proxy.txt', 'a+')
self.file.write('{}:{}\n'.format(ip,port))
self.file.close()
except Exception as e:
print("訪問失敗")
def close(self):
self.file.close()
mypoxy = MyProxy()
text = mypoxy.GetPage(start_url)
while True:
try:
mypoxy.GetInfo(text)
mypoxy.GetPage(text)
text = mypoxy.GetPage(mypoxy.new_url)
except Exception as e:
print('**'*10)
# mypoxy.close()
“python爬蟲怎么利用requests制作代理池s”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。