91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬蟲之Get和Post請求是什么意思

發布時間:2020-09-08 13:45:20 來源:億速云 閱讀:441 作者:小新 欄目:編程語言

這篇文章將為大家詳細講解有關Python爬蟲之Get和Post請求是什么意思,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

在說 Get 和 Post 請求之前,我們先來看一下 url 的編碼和解碼,我們在瀏覽器的鏈接里如果輸入有中文的話,如:https://www.baidu.com/s?wd=貼吧,那么瀏覽器會自動為我們編碼成:https://www.baidu.com/s?wd=%E8%B4%B4%E5%90%A7,在 Python2.x 中我們需要使用 urllib 模塊的 urlencode 方法,但我們在之前的文章已經說過之后的內容以 Python3.x 為主,所以我們就說一下 Python3.x 中的編碼和解碼。

在 Python3.x 中,我們需要引入 urllib.parse 模塊,如下:

import urllib.parse
data= {"kw":"貼吧"}
# 通過 urlencode() 方法,將字典鍵值對按URL編碼轉換,從而能被web服務器接受。
data = urllib.parse.urlencode(data)
print(data)  # kw=%E8%B4%B4%E5%90%A7
# 通過 unquote() 方法,把 URL編碼字符串,轉換回原先字符串。
data = urllib.parse.unquote(data)
print(data)  # kw=貼吧

下面我們來看一下 Get 請求

GET請求一般用于我們向服務器獲取數據,比如說,我們用百度搜索 貼吧,結果如下:

Python爬蟲之Get和Post請求是什么意思

在其中我們可以看到在請求部分里,http://www.baidu.com/s? 之后出現一個長長的字符串,其中就包含我們要查詢的關鍵詞貼吧,于是我們可以嘗試用默認的 Get 方式來發送請求。

import urllib.request
import urllib.parse
import ssl

# 取消代理驗證
ssl._create_default_https_context = ssl._create_unverified_context

# url 地址
url = "http://www.baidu.com/s"
word = {"wd": "貼吧"}
word = urllib.parse.urlencode(word)  # 轉換成url編碼格式(字符串)
url = url + "?" + word  # url首個分隔符就是 ?

# User-Agent
headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_4) AppleWebKit/537.36 (KHTML, like Gecko) 
Chrome/73.0.3683.103 Safari/537.36"}

# url 作為Request()方法的參數,構造并返回一個Request對象
request = urllib.request.Request(url, headers=headers)

# Request對象作為urlopen()方法的參數,發送給服務器并接收響應
response = urllib.request.urlopen(request)
 
# 類文件對象支持 文件對象的操作方法,如read()方法讀取文件全部內容,返回字符串
html = response.read().decode("utf-8")

# 打印字符串
print(html)

我們在請求頁面的時候將我們要傳的值直接通過轉碼拼接在 url 地址后面,然后就可以獲取到我們想要的內容了,最終結果如下:

Python爬蟲之Get和Post請求是什么意思

通過開發者工具看頁面的 HTML 和我們得到的結果是完全一致的。

接下來我們看一下 post 請求,先來看一個 post 請求接口:https://movie.douban.com/j/chart/top_list?type=11&interval_id=100:90&start=0&limit=10,該接口為豆瓣的一個電影列表接口,為 post 請求,url 問號后面的為請求參數,結果如下:

Python爬蟲之Get和Post請求是什么意思

如果我們要使用 urllib 的 post 請求,則要在 Request 第二個參數加入我們想要的參數,如下:

import urllib.request
import urllib.parse
import ssl

# 取消代理驗證
ssl._create_default_https_context = ssl._create_unverified_context

# User-Agent
headers = {"User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_14_4) AppleWebKit/537.36 (KHTML, like Gecko) 
Chrome/73.0.3683.103 Safari/537.36"}
# post 請求參數
data = {
    "type": "11",
    "interval_id": "100:90",
    "start": "0",
    "limit": "10"
}
data = urllib.parse.urlencode(data).encode("utf-8")

# url 作為Request()方法的參數,構造并返回一個Request對象
request = urllib.request.Request("https://movie.douban.com/j/chart/top_list?", data=data, headers=headers)

# Request對象作為urlopen()方法的參數,發送給服務器并接收響應
response = urllib.request.urlopen(request)
 
# 類文件對象支持 文件對象的操作方法,如read()方法讀取文件全部內容,返回字符串
html = response.read().decode("utf-8")
 
# 打印字符串
print(html)

urllib 默認的是 get 請求,urllib.request.Request() 里第一個參數為 url 地址,第二個參數為請求報頭 headers,請求包頭可以不寫。

urllib 默認的是 get 請求,urllib.request.Request() 里第一個參數為 url 地址,第二個參數為請求數據 data,第三個參數為請求報頭 headers,請求包頭可以不寫。

最終結果如下:

Python爬蟲之Get和Post請求是什么意思

和我們在頁面請求的結果是一樣的。

為什么有時候POST也能在URL內看到數據?

GET方式是直接以鏈接形式訪問,鏈接中包含了所有的參數,服務器端用Request.QueryString獲取變量的值。如果包含了密碼的話是一種不安全的選擇,不過你可以直觀地看到自己提交了什么內容。

POST則不會在網址上顯示所有的參數,服務器端用Request.Form獲取提交的數據,在Form提交的時候。但是HTML代碼里如果不指定 method 屬性,則默認為GET請求,Form中提交的數據將會附加在url之后,以?分開與url分開。

表單數據可以作為 URL 字段(method="get")或者 HTTP POST (method="post")的方式來發送。

關于Python爬蟲之Get和Post請求是什么意思就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

彭泽县| 平遥县| 修武县| 安达市| 房山区| 云霄县| 宁都县| 铜山县| 五台县| 津南区| 开江县| 盐城市| 衡水市| 隆回县| 成都市| 柳河县| 盐津县| 康保县| 岳阳县| 吴忠市| 怀宁县| 博罗县| 黔江区| 和政县| 巨鹿县| 中方县| 宜春市| 瑞金市| 公主岭市| 长阳| 体育| 习水县| 溆浦县| 蒙阴县| 邳州市| 通辽市| 荔波县| 康平县| 大姚县| 长泰县| 商水县|