91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么在Python中通過設置Cookie解決網站攔截問題

發布時間:2021-02-22 14:59:54 來源:億速云 閱讀:249 作者:Leah 欄目:開發技術

本篇文章為大家展示了怎么在Python中通過設置Cookie解決網站攔截問題,內容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細介紹希望你能有所收獲。

python是什么意思

Python是一種跨平臺的、具有解釋性、編譯性、互動性和面向對象的腳本語言,其最初的設計是用于編寫自動化腳本,隨著版本的不斷更新和新功能的添加,常用于用于開發獨立的項目和大型項目。

一. 網站分析與爬蟲攔截

當我們打開螞蟻短租搜索貴陽市,反饋如下圖所示結果。

怎么在Python中通過設置Cookie解決網站攔截問題

我們可以看到短租房信息呈現一定規律分布,如下圖所示,這也是我們要爬取的信息。

怎么在Python中通過設置Cookie解決網站攔截問題

通過瀏覽器審查元素,我們可以看到需要爬取每條租房信息都位于<dd></dd>節點下。

怎么在Python中通過設置Cookie解決網站攔截問題

很多人學習python,不知道從何學起。
很多人學習python,掌握了基本語法過后,不知道在哪里尋找案例上手。
很多已經做案例的人,卻不知道如何去學習更加高深的知識。
那么針對這三類人,我給大家提供一個好的學習平臺,免費領取視頻教程,電子書籍,以及課程的源代碼!
QQ群:810735403

在定位房屋名稱,如下圖所示,位于<div class="room-detail clearfloat"></div>節點下。

怎么在Python中通過設置Cookie解決網站攔截問題

接下來我們寫個簡單的BeautifulSoup進行爬取。

# -*- coding: utf-8 -*-
import urllib
import re
from bs4 import BeautifulSoup
import codecs
 
url = 'http://www.mayi.com/guiyang/?map=no'
response=urllib.urlopen(url)
contents = response.read()
soup = BeautifulSoup(contents, "html.parser")
print soup.title
print soup
#短租房名稱
for tag in soup.find_all('dd'):
 for name in tag.find_all(attrs={"class":"room-detail clearfloat"}):
 fname = name.find('p').get_text()
 print u'[短租房名稱]', fname.replace('\n','').strip()

但很遺憾,報錯了,說明螞蟻金服防范措施還是挺到位的。

怎么在Python中通過設置Cookie解決網站攔截問題

二. 設置Cookie的BeautifulSoup爬蟲

添加消息頭的代碼如下所示,這里先給出代碼和結果,再教大家如何獲取Cookie。

# -*- coding: utf-8 -*-
import urllib2
import re
from bs4 import BeautifulSoup
 
#爬蟲函數
def gydzf(url):
 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"
 headers={"User-Agent":user_agent}
 request=urllib2.Request(url,headers=headers)
 response=urllib2.urlopen(request)
 contents = response.read()
 soup = BeautifulSoup(contents, "html.parser")
 for tag in soup.find_all('dd'):
 #短租房名稱
 for name in tag.find_all(attrs={"class":"room-detail clearfloat"}):
 fname = name.find('p').get_text()
 print u'[短租房名稱]', fname.replace('\n','').strip()
 #短租房價格
 for price in tag.find_all(attrs={"class":"moy-b"}):
 string = price.find('p').get_text()
 fprice = re.sub("[¥]+".decode("utf8"), "".decode("utf8"),string)
 fprice = fprice[0:5]
 print u'[短租房價格]', fprice.replace('\n','').strip()
 #評分及評論人數
 for score in name.find('ul'):
 fscore = name.find('ul').get_text()
 print u'[短租房評分/評論/居住人數]', fscore.replace('\n','').strip()
 #網頁鏈接url
 url_dzf = tag.find(attrs={"target":"_blank"})
 urls = url_dzf.attrs['href']
 print u'[網頁鏈接]', urls.replace('\n','').strip()
 urlss = 'http://www.mayi.com' + urls + ''
 print urlss
 
#主函數
if __name__ == '__main__':
 i = 1
 while i<10:
 print u'頁碼', i
 url = 'http://www.mayi.com/guiyang/' + str(i) + '/?map=no'
 gydzf(url)
 i = i+1
 else:
 print u"結束"

輸出結果如下圖所示:

頁碼 1
[短租房名稱] 大唐東原財富廣場--城市簡約復式民宿
[短租房價格] 298
[短租房評分/評論/居住人數] 5.0分·5條評論·二居·可住3人
[網頁鏈接] /room/851634765
http://www.mayi.com/room/851634765
[短租房名稱] 大唐東原財富廣場--清新檸檬復式民宿
[短租房價格] 568
[短租房評分/評論/居住人數] 2條評論·三居·可住6人
[網頁鏈接] /room/851634467
http://www.mayi.com/room/851634467
 
...
 
頁碼 9
[短租房名稱] 【高鐵北站公園旁】美式風情+超大舒適安逸
[短租房價格] 366
[短租房評分/評論/居住人數] 3條評論·二居·可住5人
[網頁鏈接] /room/851018852
http://www.mayi.com/room/851018852
[短租房名稱] 大營坡(中大國際購物中心附近)北歐小清新三室
[短租房價格] 298
[短租房評分/評論/居住人數] 三居·可住6人
[網頁鏈接] /room/851647045
http://www.mayi.com/room/851647045

怎么在Python中通過設置Cookie解決網站攔截問題

接下來我們想獲取詳細信息

怎么在Python中通過設置Cookie解決網站攔截問題

這里作者主要是提供分析Cookie的方法,使用瀏覽器打開網頁,右鍵“檢查”,然后再刷新網頁。在“NetWork”中找到網頁并點擊,在彈出來的Headers中就隱藏這這些信息。

怎么在Python中通過設置Cookie解決網站攔截問題

最常見的兩個參數是Cookie和User-Agent,如下圖所示:

怎么在Python中通過設置Cookie解決網站攔截問題

然后在Python代碼中設置這些參數,再調用Urllib2.Request()提交請求即可,核心代碼如下:

user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) ... Chrome/61.0.3163.100 Safari/537.36"
 cookie="mediav=%7B%22eid%22%3A%22387123...b3574ef2-21b9-11e8-b39c-1bc4029c43b8"
 headers={"User-Agent":user_agent,"Cookie":cookie}
 request=urllib2.Request(url,headers=headers)
 response=urllib2.urlopen(request)
 contents = response.read()
 soup = BeautifulSoup(contents, "html.parser")
 for tag1 in soup.find_all(attrs={"class":"main"}):

注意,每小時Cookie會更新一次,我們需要手動修改Cookie值即可,就是上面代碼的cookie變量和user_agent變量。完整代碼如下所示:

import urllib2
import re
from bs4 import BeautifulSoup
import codecs
import csv
 
c = open("ycf.csv","wb") #write 寫
c.write(codecs.BOM_UTF8)
writer = csv.writer(c)
writer.writerow(["短租房名稱","地址","價格","評分","可住人數","人均價格"])
 
#爬取詳細信息
def getInfo(url,fname,fprice,fscore,users):
 #通過瀏覽器開發者模式查看訪問使用的user_agent及cookie設置訪問頭(headers)避免反爬蟲,且每隔一段時間運行要根據開發者中的cookie更改代碼中的cookie
 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/61.0.3163.100 Safari/537.36"
 cookie="mediav=%7B%22eid%22%3A%22387123%22eb7; mayi_uuid=1582009990674274976491; sid=42200298656434922.85.130.130"
 headers={"User-Agent":user_agent,"Cookie":cookie}
 request=urllib2.Request(url,headers=headers)
 response=urllib2.urlopen(request)
 contents = response.read()
 soup = BeautifulSoup(contents, "html.parser")
 #短租房地址
 for tag1 in soup.find_all(attrs={"class":"main"}):
 print u'短租房地址:'
 for tag2 in tag1.find_all(attrs={"class":"desWord"}):
 address = tag2.find('p').get_text()
 print address
 #可住人數
 print u'可住人數:'
 for tag4 in tag1.find_all(attrs={"class":"w258"}):
 yy = tag4.find('span').get_text()
 print yy
 fname = fname.encode("utf-8")
 address = address.encode("utf-8")
 fprice = fprice.encode("utf-8")
 fscore = fscore.encode("utf-8")
 fpeople = yy[2:3].encode("utf-8")
 ones = int(float(fprice))/int(float(fpeople))
 #存儲至本地
 writer.writerow([fname,address,fprice,fscore,fpeople,ones])
 
#爬蟲函數
def gydzf(url):
 user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"
 headers={"User-Agent":user_agent}
 request=urllib2.Request(url,headers=headers)
 response=urllib2.urlopen(request)
 contents = response.read()
 soup = BeautifulSoup(contents, "html.parser")
 for tag in soup.find_all('dd'):
 #短租房名稱
 for name in tag.find_all(attrs={"class":"room-detail clearfloat"}):
 fname = name.find('p').get_text()
 print u'[短租房名稱]', fname.replace('\n','').strip()
 #短租房價格
 for price in tag.find_all(attrs={"class":"moy-b"}):
 string = price.find('p').get_text()
 fprice = re.sub("[¥]+".decode("utf8"), "".decode("utf8"),string)
 fprice = fprice[0:5]
 print u'[短租房價格]', fprice.replace('\n','').strip()
 #評分及評論人數
 for score in name.find('ul'):
 fscore = name.find('ul').get_text()
 print u'[短租房評分/評論/居住人數]', fscore.replace('\n','').strip()
 #網頁鏈接url
 url_dzf = tag.find(attrs={"target":"_blank"})
 urls = url_dzf.attrs['href']
 print u'[網頁鏈接]', urls.replace('\n','').strip()
 urlss = 'http://www.mayi.com' + urls + ''
 print urlss
 getInfo(urlss,fname,fprice,fscore,user_agent)
 
#主函數
if __name__ == '__main__':
 i = 0
 while i<33:
 print u'頁碼', (i+1)
 if(i==0):
 url = 'http://www.mayi.com/guiyang/?map=no'
 if(i>0):
 num = i+2 #除了第一頁是空的,第二頁開始按2順序遞增
 url = 'http://www.mayi.com/guiyang/' + str(num) + '/?map=no'
 gydzf(url)
 i=i+1
 
c.close()

輸出結果如下,存儲本地CSV文件:

怎么在Python中通過設置Cookie解決網站攔截問題

上述內容就是怎么在Python中通過設置Cookie解決網站攔截問題,你們學到知識或技能了嗎?如果還想學到更多技能或者豐富自己的知識儲備,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

安龙县| 朝阳县| 湖州市| 通城县| 元朗区| 尼勒克县| 辽宁省| 徐闻县| 雷州市| 天门市| 昔阳县| 余干县| 塘沽区| 象山县| 蒙山县| 柞水县| 寻甸| 宁蒗| 黔东| 泊头市| 扶余县| 驻马店市| 莲花县| 新密市| 亳州市| 奉新县| 黄骅市| 盐源县| 曲松县| 毕节市| 建德市| 乌什县| 泸定县| 霍林郭勒市| 汉中市| 扬中市| 祥云县| 蒙城县| 灵川县| 车致| 盐城市|