您好,登錄后才能下訂單哦!
今天就跟大家聊聊有關python爬蟲如何使用Selenium,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。
簡介
Selenium是一個用于Web應用程序測試的工具。Selenium可以直接運行在瀏覽器中,就像真正的用戶在操作一樣。支持的瀏覽器包括IE(7, 8, 9, 10, 11),Mozilla Firefox,Safari,Google Chrome,Opera等。
Selenium最初是一個自動化測試工具,而爬蟲中使用它主要是為了解決requests無法直接執行JavaScript代碼的問題 selenium本質是通過驅動瀏覽器,完全模擬瀏覽器的操作,比如跳轉、輸入、點擊、下拉等,來拿到網頁渲染之后的結果。
環境安裝
安裝selenium:pip install selenium
下載瀏覽器驅動程序:http://chromedriver.storage.googleapis.com/index.html
簡單使用/效果展示
from selenium import webdriver from time import sleep driver = webdriver.Chrome(r'chromedriver.exe') # 加載驅動程序 driver.get("http://www.baidu.com") # 用get打開百度頁面 driver.find_elements_by_link_text('設置')[0].click() # 查找頁面的“設置”選項,并進行點擊 sleep(2) driver.find_elements_by_link_text('搜索設置')[0].click() # 打開設置后找到“搜索設置”選項,設置為每頁顯示50條 sleep(2) m = driver.find_element_by_id('nr') # 找到搜索設置中的選中條目 sleep(2) m.find_element_by_xpath('//*[@id="nr"]/option[3]').click() # 點擊顯示條目選擇框 m.find_element_by_xpath('.//option[3]').click() # 選中最后一項每頁顯示50條 sleep(2) driver.find_elements_by_class_name("prefpanelgo")[0].click() # 點擊保存設置 sleep(2) driver.switch_to_alert().accept() # 處理彈出的警告頁面 確定accept() 和 取消dismiss() sleep(2) driver.find_element_by_id('kw').send_keys('美女') # 找到百度的輸入框,并輸入 美女 sleep(2) driver.find_element_by_id('su').click() # 點擊搜索按鈕 sleep(2) driver.find_elements_by_link_text('美女_百度圖片')[0].click() # 在打開的頁面中找到“美女_百度圖片”,并打開這個頁面 sleep(3) # 關閉瀏覽器 driver.quit()
元素定位
webdriver 提供了一系列的元素定位方法,常用的有以下幾種:
find_element_by_id() find_element_by_name() find_element_by_class_name() find_element_by_tag_name() find_element_by_link_text() find_element_by_partial_link_text() find_element_by_xpath() find_element_by_css_selector()
注意:
1、find_element_by_xxx找的是第一個符合條件的標簽,find_elements_by_xxx找的是所有符合條件的標簽。
2、根據ID、CSS選擇器和XPath獲取,它們返回的結果完全一致。
3、另外,Selenium還提供了通用方法find_element(),它需要傳入兩個參數:查找方式By和值。實際上,它就是find_element_by_id()這種方法的通用函數版本,比如find_element_by_id(id)就等價于find_element(By.ID, id),二者得到的結果完全一致。
動作鏈
在上面的實例中,一些交互動作都是針對某個節點執行的。比如,對于輸入框,我們就調用它的輸入文字和清空文字方法;對于按鈕,就調用它的點擊方法。其實,還有另外一些操作,它們沒有特定的執行對象,比如鼠標拖曳、鍵盤按鍵等,這些動作用另一種方式來執行,那就是動作鏈。
比如,現在實現一個節點的拖曳操作,將某個節點從一處拖曳到另外一處,可以這樣實現:
from selenium import webdriver from selenium.webdriver import ActionChains from time import sleep # 實例化了一個谷歌瀏覽器對象且將驅動程序進行了加載 bro = webdriver.Chrome(executable_path='chromedriver.exe') bro.get('https://www.runoob.com/try/try.php?filename=jqueryui-api-droppable') bro.switch_to.frame('iframeResult') # 基于動作鏈實現拖動操作 div_tag = bro.find_element_by_id('draggable') # 定位即將被拖動的標簽 # 實例化一個動作鏈對象,將當前瀏覽器對象作為參數進行傳入 action = ActionChains(bro) action.click_and_hold(div_tag) # 點擊且長按的操作 for i in range(5): action.move_by_offset(20, 0).perform() # perform()表示立即執行動作鏈 sleep(0.5) action.release() sleep(2) bro.quit()
執行JavaScript
對于某些操作,Selenium API并沒有提供。比如,下拉進度條,它可以直接模擬運行JavaScript,此時使用execute_script()方法即可實現,代碼如下:
from selenium import webdriver browser = webdriver.Chrome() browser.get('https://www.jd.com/') browser.execute_script('window.scrollTo(0, document.body.scrollHeight)') browser.execute_script('alert("123")')
獲取頁面源碼數據
通過page_source屬性可以獲取網頁的源代碼,接著就可以使用解析庫(如正則表達式、Beautiful Soup、pyquery等)來提取信息了。
前進和后退
import time from selenium import webdriver browser = webdriver.Chrome() browser.get('https://www.baidu.com') browser.get('https://www.taobao.com') browser.back() time.sleep(5) browser.forward() browser.close()
Cookie處理
使用Selenium,還可以方便地對Cookies進行操作,例如獲取、添加、刪除Cookies等。示例如下:
from selenium import webdriver browser = webdriver.Chrome() browser.get('https://www.zhihu.com/explore') print(browser.get_cookies()) browser.add_cookie({'name': 'name', 'domain': 'www.zhihu.com', 'value': 'germey'}) print(browser.get_cookies()) browser.delete_all_cookies() print(browser.get_cookies()
異常處理
from selenium import webdriver from selenium.common.exceptions import TimeoutException,NoSuchElementException,NoSuchFrameException try: browser=webdriver.Chrome() browser.get('http://www.runoob.com/try/try.php?filename=jqueryui-api-droppable') browser.switch_to.frame('iframssseResult') except TimeoutException as e: print(e) except NoSuchFrameException as e: print(e) finally: browser.close()
谷歌無頭瀏覽器
由于PhantomJs最近已經停止了更新和維護,所以推薦大家可以使用谷歌的無頭瀏覽器,是一款無界面的谷歌瀏覽器。
from selenium import webdriver from selenium.webdriver.chrome.options import Options import time # 創建一個參數對象,用來控制chrome以無界面模式打開 chrome_options = Options() chrome_options.add_argument('--headless') chrome_options.add_argument('--disable-gpu') # 驅動路徑 path = r'./chromedriver.exe' # 創建瀏覽器對象 browser = webdriver.Chrome(executable_path=path, chrome_options=chrome_options) # 訪問百度 url = 'http://www.baidu.com/' browser.get(url) time.sleep(3) browser.save_screenshot('baidu.png') # 截取圖片 browser.quit()
登錄qq空間,爬取數據
import requests from selenium import webdriver from lxml import etree import time driver = webdriver.Chrome(executable_path=r'./chromedriver') driver.get('https://qzone.qq.com/') # 在web 應用中經常會遇到frame 嵌套頁面的應用,使用WebDriver 每次只能在一個頁面上識別元素,對于frame 嵌套內的頁面上的元素,直接定位是定位是定位不到的。 # 這個時候就需要通過switch_to_frame()方法將當前定位的主體切換了frame 里。 driver.switch_to.frame('login_frame') driver.find_element_by_id('switcher_plogin').click() # driver.find_element_by_id('u').clear() driver.find_element_by_id('u').send_keys('1233333') # 這里填寫你的QQ號 # driver.find_element_by_id('p').clear() driver.find_element_by_id('p').send_keys('XXXXXX') # 這里填寫你的QQ密碼 driver.find_element_by_id('login_button').click() time.sleep(2) driver.execute_script('window.scrollTo(0,document.body.scrollHeight)') time.sleep(2) driver.execute_script('window.scrollTo(0,document.body.scrollHeight)') time.sleep(2) driver.execute_script('window.scrollTo(0,document.body.scrollHeight)') time.sleep(2) page_text = driver.page_source tree = etree.HTML(page_text) # 執行解析操作 li_list = tree.xpath('//ul[@id="feed_friend_list"]/li') for li in li_list: text_list = li.xpath('.//div[@class="f-info"]//text()|.//div[@class="f-info qz_info_cut"]//text()') text = ''.join(text_list) print(text + '\n\n\n') driver.close()
selenium規避被檢測識別
現在不少大網站有對selenium采取了監測機制。比如正常情況下我們用瀏覽器訪問淘寶等網站的 window.navigator.webdriver的值為
undefined。而使用selenium訪問則該值為true。那么如何解決這個問題呢?
只需要設置Chromedriver的啟動參數即可解決問題。在啟動Chromedriver之前,為Chrome開啟實驗性功能參數excludeSwitches,它的值為['enable-automation'],完整代碼如下:
from selenium.webdriver import Chrome from selenium.webdriver import ChromeOptions option = ChromeOptions() option.add_experimental_option('excludeSwitches', ['enable-automation']) driver = Chrome(options=option)
看完上述內容,你們對python爬蟲如何使用Selenium有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。