91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python利用requests庫模擬post請求時json的使用教程

發布時間:2020-10-03 02:22:47 來源:腳本之家 閱讀:171 作者:NewJune 欄目:開發技術

我們都見識過requests庫在靜態網頁的爬取上展現的威力,我們日常見得最多的為get和post請求,他們最大的區別在于安全性上:

1、GET是通過URL方式請求,可以直接看到,明文傳輸。

2、POST是通過請求header請求,可以開發者工具或者抓包可以看到,同樣也是明文的。 3.GET請求會保存在瀏覽器歷史紀錄中,還可能會保存在Web的日志中。

  兩者用法上也有顯著差異(援引自知乎):

1、GET用于從服務器端獲取數據,包括靜態資源(HTML|JS|CSS|Image等等)、動態數據展示(列表數據、詳情數據等等)。

2、POST用于向服務器提交數據,比如增刪改數據,提交一個表單新建一個用戶、或修改一個用戶等。

對于Post請求,我們可以通過瀏覽器開發者工具或者其他外部工具來進行抓包,得到請求的URL、請求頭(request headers)以及請求的表單data信息,這三樣恰恰是我們用requests模擬post請求時需要的,典型的寫法如下:

  response=requests.post(url=url,headers=headers,data=data_search)

  由于post請求很多時候是配合Ajax(異步加載)技術一起使用的,我們抓包時,可以直接選擇XHR(XmlHttpRequest)-ajax的一種對象,幫助我們濾掉其他的一些html、css、js類文件,如下圖所示(截取自Chrome):

python利用requests庫模擬post請求時json的使用教程

雙擊點開,就可以在頁面右邊的Headers頁下看到General、Response Headers、Request Headers、Form Data幾個模塊,

其中General模塊能看到請求的方法和請求的URL以及服務器返回的狀態碼(200(成功) 服務器已成功處理了請求。通常,這表示服務器提供了請求的網頁。)

python利用requests庫模擬post請求時json的使用教程

而Response Headers部分,可以看到緩存控制、服務器類型、返回內容格式、有效期等參數(筆者截圖所示,返回的為json文件):

python利用requests庫模擬post請求時json的使用教程

Request Header模塊是非常重要的,可以有效地將我們的爬取行為模擬成瀏覽器行為,應對常規的服務器反爬機制:

其中Content-Type、Cookie以及User-Agent字段較為重要,需要我們構造出來(其他字段大多數時候,不是必須)

python利用requests庫模擬post請求時json的使用教程

由于Cookie字段記錄了用戶的登陸信息,每次都不同,且同一個cookie存在一定有效期,當我們結合Selenium來組合爬取頁面信息時,可以通過selenium完成網頁的登陸校驗,然后利用selenium提取出cookie,再轉換為瀏覽器能識別的cookie格式,通常代碼如下所示:

cookies = driver.get_cookies() #利用selenium原生方法得到cookies
ret=''
for cookie in cookies:
  cookie_name=cookie['name']
  cookie_value=cookie['value']
  ret=ret+cookie_name+'='+cookie_value+';' #ret即為最終的cookie,各cookie以“;”相隔開

緊接著,我們需要構造headers部分(即請求頭),我們挑重點的幾個字段進行構造:

headers={
  'Host':'**********.com',
  'Referer':'http://****************/check/index.do',
  'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.110 Safari/537.36',
  'X-Requested-With':'XMLHttpRequest',
  'Content-Type':'application/x-www-form-urlencoded; charset=UTF-8',
  'Cookie':ret #需要登陸后捕獲cookie并調用
}

我們在網頁中點擊“確定”按鈕,網頁則會異步加載,后臺發出post請求,取到json文件并渲染到網頁表單中,比如我們根據需求填寫了部分字段(這些就是我們post請求的data信息),然后觀察后臺的form data信息:

python利用requests庫模擬post請求時json的使用教程

后臺Form data 捕獲到的data參數如圖:

python利用requests庫模擬post請求時json的使用教程

類似于字典格式,其中condition鍵對應的value較為復雜——列表中包含字典,字典中還有部分函數,其中字符串中既有單引號又有雙引號交錯。屬于關鍵信息,page決定了網頁的翻頁在第幾頁,而rows則表示每次請求的數據限定的最大行數。

本例中問題的關鍵是,如何把想要的信息(譬如來源于excel配置文件)傳遞到condition字段對應的值內,確保Form data信息靈活可配置,大抵用法如下:

data_search={
  'page':1,
  'rows':15,
  'condition':
  """[\
    {"column":"BPM_DEF_NAME","exp":"like","value":""},\
    {"column":"DELETE_STATUS","exp":"=","value":0},\
    {"column":"TO_CHAR(TO_DATE(CREATE_DATE,'YYYY-MM-DD HH24:MI:SS'),'YYYY-MM-DD')","exp":">=","value":"YYYY-MM-DD"},\
    {"column":"TO_CHAR(TO_DATE(CREATE_DATE,'YYYY-MM-DD HH24:MI:SS'),'YYYY-MM-DD')","exp":"<=","value":"YYYY-MM-DD"},\
    {"column":"CHECK_TYPE","exp":"like","value":"2"},\
    {"column":"LOCKED_STATUS","exp":"=","value":0},\
    {"column":"DELETE_STATUS","orderType":"default","orderKey":"","direction":"ASC"}\
  ]""",  #考慮到該字段已經有單引號、雙引號,所以只能用三引號來包住這部分代表字符串
  'additionalParams':'{}'
}
data_search_condition=json.loads(data_search['condition'])  #將字符串轉為列表,方便更新列表(列表中每個元素都是一個單個字典)元素
#刷新字典
data_search_condition[0]['value']=businessName
data_search_condition[2]['value']=str(startDate)
data_search_condition[3]['value']=str(endDate)
data_search['condition']=json.dumps(data_search_condition) #將列表重新轉回字符串,作為data_search字典中鍵“condition”對應的“value”,然后更新字典

上述代碼中,data_search其實為字典對象,其鍵“condition”對應的值(三引號包住部分)為字符串,本質是json格式,我們如何對這部分動態傳參呢?

這里需要用到python json包中常用的loads和dumps方法:

1、json.loads()是將json格式對象,轉化Python可識別的字典對象。解碼python json格式,可以用這個模塊的json.loads()函數的解析方法。

2、json.dumps()是將一個Python數據類型列表進行json格式的編碼解析,可以將一個list列表對象,進行了json格式的編碼轉換。

3、json.dump和json.dumps很不同,json.dump主要用來json文件讀寫,和json.load函數配合使用。

上面實例中,就是將data_search['condition'](json,字符串)轉換為列表,然后根據列表定位到底層的每個dict字典,最后根據dict[Key]=value的方法進行更新(傳參),更新完之后的列表,再通過json.dumps反向轉回字符串,這樣整個data_search字典中參數就可以靈活配置,通過外部引入了。

剩下的工作就很簡單,交給強大的Requests包完成就好,示例代碼如下:

def get_page(data_search,url): #定義頁面解析的函數,返回值為json格式
  try:
    response=requests.post(url=url,headers=headers,data=data_search)
    if response.status_code==200:
      return response.json()
  except requests.ConnectionError as e:
    print('Error',e.args)

我們還可以把json格式內容存到本地(data.json)格式文件或者txt文本,并按照特定縮進(indent=4)進行規則排版,格式化內容,此時要用到json.dump()方法,示例代碼如下:

for pageNum in range(1,1000):
  data_search['page']=str(pageNum)
  pageContent=get_page(data_search=data_search,url=url)
  with open('data.json','w',encoding="utf-8") as json_file:
    json.dump(pageContent,json_file,ensure_ascii = False,indent=4)
  if pageContent==None:
    print("無符合條件的單據!") 
    time.sleep(3)
    sys.exit(0)

格式化后的json看上去直觀不少:

python利用requests庫模擬post請求時json的使用教程

   最后感慨一句:爬蟲是門技術活,任何一個技術理解地不夠透徹,碰到復雜的問題,可能就要花上很長時間去試錯,譬如本文示例中的字典、json包幾個功能的使用,稍微出錯,就無法請求到對的數據!

PS:特別強調一點,有的時候requests.post()方法中data字段不填或者填寫有誤,服務器有時也會返回200狀態碼以及相應內容。這種情況下,我們一定要與手工操作得到的json文件進行對比,看看我們的傳參(多測試幾組不同的參數,看返回json內容是否不同)是否真的起到作用,以免空歡喜一場!

總結

以上所述是小編給大家介紹的python利用requests庫模擬post請求時json的使用教程 ,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復大家的。在此也非常感謝大家對億速云網站的支持!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

苍山县| 东阳市| 罗甸县| 饶阳县| 徐闻县| 洪江市| 青阳县| 突泉县| 开江县| 靖远县| 轮台县| 绵阳市| 临高县| 浏阳市| 泌阳县| 安平县| 沈阳市| 金堂县| 晋州市| 沙河市| 平舆县| 河源市| 博野县| 霍林郭勒市| 班玛县| 贡嘎县| 慈利县| 奉节县| 类乌齐县| 绥中县| 望江县| 肥东县| 额济纳旗| 海城市| 凤台县| 绥江县| 巴里| 大同市| 榆社县| 赣州市| 咸阳市|