您好,登錄后才能下訂單哦!
這篇文章將為大家詳細講解有關爬取某數據公司電話以及地址信息的方法,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
準備:selenium+PhatomJS或者selenium+Firefox
我這里直接用的后者selenium+Firefox
思路: 爬取這部分信息的話,代碼其實不難,主要包括模擬登陸、獲得頁面網址以及抓取頁面信息。
模擬登陸
網址:https://www.tianyancha.com/login
頁面如下:
使用selenium模擬登陸代碼:
time.sleep(random.random()+1) browser.get(loginURL) time.sleep(random.random()+random.randint(2,3)) browser.find_element_by_css_selector('div.title:nth-child(2)').click() time.sleep(random.uniform(0.5,1)) phone = browser.find_element_by_css_selector('div.modulein:nth-child(2) > div:nth-child(2) > input:nth-child(1)') phone.send_keys(zhangHao) time.sleep(random.uniform(0.4,0.9)) password = browser.find_element_by_css_selector('.input-pwd') password.send_keys(miMa) click = browser.find_element_by_css_selector('div.modulein:nth-child(2) > div:nth-child(5)') click.click() time.sleep(random.uniform(0.5,1)+10)
登錄之后頁面:
關鍵詞對應的頁面網址:https://www.tianyancha.com/search?key= + key
這里以“滴滴”為例:https://www.tianyancha.com/search?key=滴滴
頁面內容如下:
獲取公司頁面網址
解析滴滴關鍵詞頁面HTML,獲得每個公司對應得URL。
注意:非會員只能查看前五頁的公司信息
代碼:
#獲取頁面數 try: pages = soup.find('ul',class_='pagination').find_all('li')[-2].getText().replace('...','') except: pages = 1 finally: print('pages:',pages) def getUid(soup): urls = [] divs = soup.find('div',class_='result-list sv-search-container').find_all('div',class_='search-item sv-search-company') for div in divs: urls.append(div.find('div',class_='header').find('a')['href']) return urls #非會員只能爬前五頁 if(int(pages)>5): pages = 5 urls = [] for i in range(1,pages+1): url = 'https://www.tianyancha.com/search/p' + str(i) + '?key=' + key browser.get(url) time.sleep(random.uniform(0.6,1)+2) soup = BeautifulSoup(browser.page_source,'lxml') urls.extend(getUid(soup))
獲得企業信息
最后根據企業網頁HTML內容,解析獲取需要的信息,看頁面可以發現這里需要的電話和地址都在最上面就有。
獲取這部分內容代碼:
#這里為了避免意外每次將結果直接寫入Excel文件 try: for url in urls: path = r'C:\Users\liuliang_i\Desktop\tianYanCha.xlsx' try: df1 = pd.read_excel(path) except: df1 = pd.DataFrame(columns=['Company','Phone','Address','Url']) browser.get(url) time.sleep(random.uniform(0.4,0.8)+1) soup = BeautifulSoup(browser.page_source,'lxml') company = soup.find('div',class_='header').find('h2',class_='name').getText() phone = soup.find('div',class_='in-block sup-ie-company-header-child-1').find_all('span')[1].getText() address = soup.find('div',class_='auto-folder').find('div').getText() df1.loc[df1.shape[0],'Company'] = company df1.loc[df1.shape[0]-1,'Phone'] = phone df1.loc[df1.shape[0]-1,'Address'] = address df1.loc[df1.shape[0]-1,'Url'] = url df1.to_excel(path,index=0) except : pass
最終結果如下所示:
關于爬取某數據公司電話以及地址信息的方法就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。