91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬蟲學習教程:天貓商品數據爬蟲

發布時間:2020-08-09 14:00:12 來源:ITPUB博客 閱讀:402 作者:python學習教程 欄目:編程語言

天貓商品數據爬蟲使用教程

  • 下載chrome瀏覽器

  • 查看chrome瀏覽器的版本號,下載對應版本號的chromedriver驅動

  • pip安裝下列包

  • pip install selenium

  • pip install pyquery

  • 登錄微博,并通過微博綁定淘寶賬號密碼

  • 在main中填寫chromedriver的絕對路徑

  • 在main中填寫微博賬號密碼

#改成你的chromedriver的完整路徑地址
    chromedriver_path = "/Users/bird/Desktop/chromedriver.exe" 
    #改成你的微博賬號
    weibo_username = "改成你的微博賬號"
    #改成你的微博密碼
    weibo_password = "改成你的微博密碼"

效果演示圖片

Python爬蟲學習教程:天貓商品數據爬蟲

Python爬蟲學習教程:天貓商品數據爬蟲

項目源碼

# -*- coding: utf-8 -*-    
from selenium import webdriver    
from selenium.webdriver.common.by import By    
from selenium.webdriver.support.ui import WebDriverWait    
from selenium.webdriver.support import expected_conditions as EC    
from selenium.webdriver import ActionChains    
from pyquery import PyQuery as pq    
from time import sleep    
#定義一個taobao類    
class taobao_infos:    
#對象初始化    
def __init__(self):    
url = 'https://login.taobao.com/member/login.jhtml'    
self.url = url    
options = webdriver.ChromeOptions()    
options.add_experimental_option("prefs", {"profile.managed_default_content_settings.images": 2}) # 不加載圖片,加快訪問速度    
options.add_experimental_option('excludeSwitches', ['enable-automation']) # 此步驟很重要,設置為開發者模式,防止被各大網站識別出來使用了Selenium    
self.browser = webdriver.Chrome(executable_path=chromedriver_path, options=options)    
self.wait = WebDriverWait(self.browser, 10) #超時時長為10s    
#延時操作,并可選擇是否彈出窗口提示    
def sleep_and_alert(self,sec,message,is_alert):    
for second in range(sec):    
if(is_alert):    
alert = "alert(\"" + message + ":" + str(sec - second) + "秒\")"    
self.browser.execute_script(alert)    
al = self.browser.switch_to.alert    
sleep(1)    
al.accept()    
else:    
sleep(1)    
#登錄淘寶    
def login(self):    
# 打開網頁    
self.browser.get(self.url)    
# 自適應等待,點擊密碼登錄選項    
self.browser.implicitly_wait(30) #智能等待,直到網頁加載完畢,最長等待時間為30s    
self.browser.find_element_by_xpath('//*[@class="forget-pwd J_Quick2Static"]').click()    
# 自適應等待,點擊微博登錄宣傳    
self.browser.implicitly_wait(30)    
self.browser.find_element_by_xpath('//*[@class="weibo-login"]').click()    
# 自適應等待,輸入微博賬號    
self.browser.implicitly_wait(30)    
self.browser.find_element_by_name('username').send_keys(weibo_username)    
# 自適應等待,輸入微博密碼    
self.browser.implicitly_wait(30)    
self.browser.find_element_by_name('password').send_keys(weibo_password)    
# 自適應等待,點擊確認登錄按鈕    
self.browser.implicitly_wait(30)    
self.browser.find_element_by_xpath('//*[@class="btn_tip"]/a/span').click()    
# 直到獲取到淘寶會員昵稱才能確定是登錄成功    
taobao_name = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '.site-nav-bd > ul.site-nav-bd-l > li#J_SiteNavLogin > div.site-nav-menu-hd > div.site-nav-user > a.site-nav-login-info-nick ')))    
# 輸出淘寶昵稱    
print(taobao_name.text)    
# 獲取天貓商品總共的頁數    
def search_toal_page(self):    
# 等待本頁面全部天貓商品數據加載完畢    
good_total = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#J_ItemList > div.product > div.product-iWrap')))    
#獲取天貓商品總共頁數    
number_total = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '.ui-page > div.ui-page-wrap > b.ui-page-skip > form')))    
page_total = number_total.text.replace("共","").replace("頁,到第頁 確定","").replace(",","")    
return page_total    
# 翻頁操作    
def next_page(self, page_number):    
# 等待該頁面input輸入框加載完畢    
input = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '.ui-page > div.ui-page-wrap > b.ui-page-skip > form > input.ui-page-skipTo')))    
# 等待該頁面的確定按鈕加載完畢    
submit = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '.ui-page > div.ui-page-wrap > b.ui-page-skip > form > button.ui-btn-s')))    
# 清除里面的數字    
input.clear()    
# 重新輸入數字    
input.send_keys(page_number)    
# 強制延遲1秒,防止被識別成機器人    
sleep(1)    
# 點擊確定按鈕    
submit.click()    
# 模擬向下滑動瀏覽    
def swipe_down(self,second):    
for i in range(int(second/0.1)):    
js = "var q=document.documentElement.scrollTop=" + str(300+200*i)    
self.browser.execute_script(js)    
sleep(0.1)    
js = "var q=document.documentElement.scrollTop=100000"    
self.browser.execute_script(js)    
sleep(0.2)    
# 爬取天貓商品數據    
def crawl_good_data(self):    
# 對天貓商品數據進行爬蟲    
self.browser.get("https://list.tmall.com/search_product.htm?q=羽毛球")    
err1 = self.browser.find_element_by_xpath("//*[@id='content']/div/div[2]").text    
err1 = err1[:5]    
if(err1 == "喵~沒找到"):    
print("找不到您要的")    
return    
try:    
self.browser.find_element_by_xpath("//*[@id='J_ComboRec']/div[1]")    
err2 = self.browser.find_element_by_xpath("//*[@id='J_ComboRec']/div[1]").text    
#print(err2)    
err2 = err2[:5]    
if(err2 == "我們還為您"):    
print("您要查詢的商品書目太少了")    
return    
except:    
print("可以爬取這些信息")    
# 獲取天貓商品總共的頁數    
page_total = self.search_toal_page()    
print("總共頁數" + page_total)    
# 遍歷所有頁數    
for page in range(2,int(page_total)):    
# 等待該頁面全部商品數據加載完畢    
good_total = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '#J_ItemList > div.product > div.product-iWrap')))    
# 等待該頁面input輸入框加載完畢    
input = self.wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, '.ui-page > div.ui-page-wrap > b.ui-page-skip > form > input.ui-page-skipTo')))    
# 獲取當前頁    
now_page = input.get_attribute('value')    
print("當前頁數" + now_page + ",總共頁數" + page_total)    
# 獲取本頁面源代碼    
html = self.browser.page_source    
# pq模塊解析網頁源代碼    
doc = pq(html)    
# 存儲天貓商品數據    
good_items = doc('#J_ItemList .product').items()    
# 遍歷該頁的所有商品    
for item in good_items:    
good_title = item.find('.productTitle').text().replace('\n',"").replace('\r',"")    
good_status = item.find('.productStatus').text().replace(" ","").replace("筆","").replace('\n',"").replace('\r',"")    
good_price = item.find('.productPrice').text().replace("¥", "").replace(" ", "").replace('\n', "").replace('\r', "")    
good_url = item.find('.productImg').attr('href')    
print(good_title + "   " + good_status + "   " + good_price + "   " + good_url + '\n')    
# 精髓之處,大部分人被檢測為機器人就是因為進一步模擬人工操作    
# 模擬人工向下瀏覽商品,即進行模擬下滑操作,防止被識別出是機器人    
self.swipe_down(2)    
# 翻頁,下一頁    
self.next_page(page)    
# 等待滑動驗證碼出現,超時時間為5秒,每0.5秒檢查一次    
# 大部分情況不會出現滑動驗證碼,所以如果有需要可以注釋掉下面的代碼    
# sleep(5)    
WebDriverWait(self.browser, 5, 0.5).until(EC.presence_of_element_located((By.ID, "nc_1_n1z"))) #等待滑動拖動控件出現    
try:    
swipe_button = self.browser.find_element_by_id('nc_1_n1z') #獲取滑動拖動控件    
#模擬拽托    
action = ActionChains(self.browser) # 實例化一個action對象    
action.click_and_hold(swipe_button).perform() # perform()用來執行ActionChains中存儲的行為    
action.reset_actions()    
action.move_by_offset(580, 0).perform() # 移動滑塊    
except Exception as e:    
print ('get button failed: ', e)    
if __name__ == "__main__":    
# 使用之前請先查看當前目錄下的使用說明文件README.MD    
# 使用之前請先查看當前目錄下的使用說明文件README.MD    
# 使用之前請先查看當前目錄下的使用說明文件README.MD    
chromedriver_path = "/Users/bird/Desktop/chromedriver.exe" #改成你的chromedriver的完整路徑地址    
weibo_username = "改成你的微博賬號" #改成你的微博賬號    
weibo_password = "改成你的微博密碼" #改成你的微博密碼    
a = taobao_infos()    
a.login() #登錄    
a.crawl_good_data() #爬取天貓商品數據

平臺網站經常變動,可以做參考

很多初學者,對Python的概念都是模糊不清的,Python能做什么,學的時候,該按照什么線路去學習,學完往哪方面發展,想深入了解,詳情可以點擊有道云筆記鏈接了解:http://note.youdao.com/noteshare?id=7df52a4961924a8d98d3bc774cbfe54d

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

高邮市| 大宁县| 石渠县| 寻乌县| 双牌县| 博爱县| 长海县| 吉木乃县| 昭通市| 广安市| 桃江县| 慈利县| 乡宁县| 个旧市| 定陶县| 天镇县| 汤阴县| 江安县| 靖宇县| 金川县| 边坝县| 灵寿县| 潜山县| 隆回县| 益阳市| 澄迈县| 阿拉善右旗| 郓城县| 南澳县| 湘乡市| 南召县| 阜南县| 扬州市| 苗栗县| 成安县| 都匀市| 通江县| 镇江市| 同德县| 监利县| 通州区|