91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬蟲怎么實現搭建代理ip池

發布時間:2022-06-22 09:28:32 來源:億速云 閱讀:253 作者:iii 欄目:開發技術

這篇“Python爬蟲怎么實現搭建代理ip池”文章的知識點大部分人都不太理解,所以小編給大家總結了以下內容,內容詳細,步驟清晰,具有一定的借鑒價值,希望大家閱讀完這篇文章能有所收獲,下面我們一起來看看這篇“Python爬蟲怎么實現搭建代理ip池”文章吧。

一、User-Agent

在發送請求的時候,通常都會做一個簡單的反爬。這時可以用fake_useragent模塊來設置一個請求頭,用來進行偽裝成瀏覽器,下面兩種方法都可以。

from fake_useragent import UserAgent
headers = {
        # 'User-Agent': UserAgent().random #常見瀏覽器的請求頭偽裝(如:火狐,谷歌)
        'User-Agent': UserAgent().Chrome #谷歌瀏覽器
    }

Python爬蟲怎么實現搭建代理ip池

二、發送請求

response = requests.get(url='http://www.ip3366.net/free/', headers=request_header())
        # text = response.text.encode('ISO-8859-1')
        # print(text.decode('gbk'))

三、解析數據

我們只需要解析出ip、port即可。

Python爬蟲怎么實現搭建代理ip池

Python爬蟲怎么實現搭建代理ip池

使用xpath解析(個人很喜歡用)(當然還有很多的解析方法,如:正則,css選擇器,BeautifulSoup等等)。

	#使用xpath解析,提取出數據ip,端口
        html = etree.HTML(response.text)
        tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr')
        for td in tr_list:
            ip_ = td.xpath('./td[1]/text()')[0] #ip
            port_ = td.xpath('./td[2]/text()')[0]  #端口
            proxy = ip_ + ':' + port_   #115.218.5.5:9000

四、構建ip代理池,檢測ip是否可用

#構建代理ip
	proxy = ip + ':' + port
	proxies = {
        "http": "http://" + proxy,
        "https": "http://" + proxy,
        # "http": proxy,
        # "https": proxy,
    }
    try:
        response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #設置timeout,使響應等待1s
        response.close()
        if response.status_code == 200:
            print(proxy, '\033[31m可用\033[0m')
        else:
            print(proxy, '不可用')
    except:
        print(proxy,'請求異常')

五、完整代碼

import requests                         #導入模塊
from lxml import etree
from fake_useragent import UserAgent
#簡單的反爬,設置一個請求頭來偽裝成瀏覽器
def request_header():
    headers = {
        # 'User-Agent': UserAgent().random #常見瀏覽器的請求頭偽裝(如:火狐,谷歌)
        'User-Agent': UserAgent().Chrome #谷歌瀏覽器
    }
    return headers
'''
創建兩個列表用來存放代理ip
'''
all_ip_list = []  #用于存放從網站上抓取到的ip
usable_ip_list = [] #用于存放通過檢測ip后是否可以使用

#發送請求,獲得響應
def send_request():
    #爬取7頁,可自行修改
    for i in range(1,8): 
        print(f'正在抓取第{i}頁……')
        response = requests.get(url=f'http://www.ip3366.net/free/?page={i}', headers=request_header())
        text = response.text.encode('ISO-8859-1')
        # print(text.decode('gbk'))
        #使用xpath解析,提取出數據ip,端口
        html = etree.HTML(text)
        tr_list = html.xpath('/html/body/div[2]/div/div[2]/table/tbody/tr')
        for td in tr_list:
            ip_ = td.xpath('./td[1]/text()')[0] #ip
            port_ = td.xpath('./td[2]/text()')[0]  #端口
            proxy = ip_ + ':' + port_   #115.218.5.5:9000
            all_ip_list.append(proxy)
            test_ip(proxy)      #開始檢測獲取到的ip是否可以使用
    print('抓取完成!')
    print(f'抓取到的ip個數為:{len(all_ip_list)}')
    print(f'可以使用的ip個數為:{len(usable_ip_list)}')
    print('分別有:\n', usable_ip_list)
#檢測ip是否可以使用
def test_ip(proxy):
    #構建代理ip
    proxies = {
        "http": "http://" + proxy,
        "https": "http://" + proxy,
        # "http": proxy,
        # "https": proxy,
    }
    try:
        response = requests.get(url='https://www.baidu.com/',headers=request_header(),proxies=proxies,timeout=1) #設置timeout,使響應等待1s
        response.close()
        if response.status_code == 200:
            usable_ip_list.append(proxy)
            print(proxy, '\033[31m可用\033[0m')
        else:
            print(proxy, '不可用')
    except:
        print(proxy,'請求異常')
if __name__ == '__main__':
    send_request()

以上就是關于“Python爬蟲怎么實現搭建代理ip池”這篇文章的內容,相信大家都有了一定的了解,希望小編分享的內容對大家有幫助,若想了解更多相關的知識內容,請關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

隆安县| 乐平市| SHOW| 舞阳县| 云霄县| 东城区| 民乐县| 霸州市| 扶风县| 明光市| 玛纳斯县| 台州市| 赫章县| 靖边县| 遂昌县| 孙吴县| 洛宁县| 象山县| 许昌市| 阳曲县| 明水县| 清涧县| 赤壁市| 汶川县| 无为县| 杨浦区| 阳西县| 寿阳县| 长阳| 荆门市| 大宁县| 遵义县| 土默特左旗| 临泽县| 迁安市| 通山县| 盐边县| 行唐县| 兴城市| 招远市| 嘉祥县|