91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python如何爬取Json數據

發布時間:2020-12-08 09:52:09 來源:億速云 閱讀:668 作者:小新 欄目:編程語言

這篇文章將為大家詳細講解有關Python如何爬取Json數據,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。


該地址返回的響應內容為Json類型,其中紅框標記的項即為AI流轉率值:

Python如何爬取Json數據

實現代碼如下:

import requests
import json
import csv
 
# 爬蟲地址
url = 'https://databank.yushanfang.com/api/ecapi?path=/databank/crowdFullLink/flowInfo&fromCrowdId=3312&beginTheDate=201810{}&endTheDate=201810{}&toCrowdIdList[0]=3312&toCrowdIdList[1]=3313&toCrowdIdList[2]=3314&toCrowdIdList[3]=3315'
 
# 攜帶cookie進行訪問
headers = {
'Host':'databank.yushanfang.com',
'Referer':'https://databank.yushanfang.com/',
'Connection':'keep-alive',
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
'Cookie':'_tb_token_=iNkDeJLdM3MgvKjhsfdW; bs_n_lang=zh_CN; cna=aaj1EViI7x0CATo9kTKvjzgS; ck2=072de851f1c02d5c7bac555f64c5c66d; c_token=c74594b486f8de731e2608cb9526a3f2; an=5YWo5qOJ5pe25Luj5a6Y5pa55peX6Iiw5bqXOnpmeA%3D%3D; lg=true; sg=\"=19\"; lvc=sAhojs49PcqHQQ%3D%3D; isg=BPT0Md7dE_ic5Ie3Oa85RxaMxbLK3UqJMMiN6o5VjH8C-ZRDtt7aRXb3fXGEAVAP',
}
 
rows = []
for n in range(20, 31):
  row = []
  row.append(n)
  for m in range (21, 32):
    if m < n + 1:
      row.append("")
    else:
      
      # 格式化請求地址,更換請求參數
      reqUrl = url.format(n, m)
      
      # 打印本次請求地址
      print(url)
      
      # 發送請求,獲取響應結果
      response = requests.get(url=reqUrl, headers=headers, verify=False)
      text = response.text
      
      # 打印本次請求響應內容
      print(text)
      
      # 將響應內容轉換為Json對象
      jsonobj = json.loads(text)
      
      # 從Json對象獲取想要的內容
      toCntPercent = jsonobj['data']['interCrowdInfo'][1]['toCntPercent']
      
      # 生成行數據
      row.append(str(toCntPercent)+"%")
      
  # 保存行數據    
  rows.append(row)
  
# 生成Excel表頭
header = ['AI流轉率', '21', '22', '23', '24', '25', '26', '27', '28', '29', '30', '31']
 
# 將表頭數據和爬蟲數據導出到Excel文件
with open('D:\\res\\pachong\\tmall.csv', 'w', encoding='gb18030') as f :
  f_csv = csv.writer(f)
  f_csv.writerow(header)
  f_csv.writerows(rows)
import csv
import json
import ssl
import urllib.request
 
# 爬蟲地址
url = 'https://databank.yushanfang.com/api/ecapi?path=/databank/crowdFullLink/flowInfo&fromCrowdId=3312&beginTheDate=201810{}&endTheDate=201810{}&toCrowdIdList[0]=3312&toCrowdIdList[1]=3313&toCrowdIdList[2]=3314&toCrowdIdList[3]=3315'
 
# 不校驗證書
ssl._create_default_https_context = ssl._create_unverified_context
 
# 攜帶cookie進行訪問
headers = {
'Host':'databank.yushanfang.com',
'Referer':'https://databank.yushanfang.com/',
'Connection':'keep-alive',
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
'Cookie':'_tb_token_=iNkDeJLdM3MgvKjhsfdW; bs_n_lang=zh_CN; cna=aaj1EViI7x0CATo9kTKvjzgS; ck2=072de851f1c02d5c7bac555f64c5c66d; c_token=c74594b486f8de731e2608cb9526a3f2; an=5YWo5qOJ5pe25Luj5a6Y5pa55peX6Iiw5bqXOnpmeA%3D%3D; lg=true; sg=\"=19\"; lvc=sAhojs49PcqHQQ%3D%3D; isg=BPT0Md7dE_ic5Ie3Oa85RxaMxbLK3UqJMMiN6o5VjH8C-ZRDtt7aRXb3fXGEAVAP',
}
 
rows = []
n = 20
while n <31:
  row = []
  row.append(n)
  
  m =21
  while m <32:
    
    if m < n + 1:
      row.append("")
    else:
      
      # 格式化請求地址,更換請求參數
      reqUrl = url.format(n, m)
      
      # 打印本次請求地址
      print(reqUrl)
      
      # 發送請求,獲取響應結果
      request = urllib.request.Request(url=reqUrl, headers=headers)
      response = urllib.request.urlopen(request)
      text = response.read().decode('utf8')
      
      # 打印本次請求響應內容
      print(text)
      
      # 將響應內容轉換為Json對象
      jsonobj = json.loads(text)
      
      # 從Json對象獲取想要的內容
      toCntPercent = jsonobj['data']['interCrowdInfo'][1]['toCntPercent']
      
      # 生成行數據
      row.append(str(toCntPercent) + "%")
      
    m = m+1
    
  rows.append(row)    
  n = n+1
  
# 生成Excel表頭
header = ['AI流轉率', '21', '22', '23', '24', '25', '26', '27', '28', '29', '30', '31']
 
# 將表頭數據和爬蟲數據導出到Excel文件
with open('D:\\res\\pachong\\tmall.csv', 'w', encoding='gb18030') as f :
  f_csv = csv.writer(f)
  f_csv.writerow(header)
  f_csv.writerows(rows)

導出內容如下:

Python如何爬取Json數據

關于Python如何爬取Json數據就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

越西县| 格尔木市| 夏津县| 北碚区| 腾冲县| 金堂县| 井研县| 宁安市| 麟游县| 惠安县| 荣昌县| 思茅市| 镇平县| 舟曲县| 忻州市| 洛宁县| 泸水县| 大化| 丹阳市| 屯昌县| 叙永县| SHOW| 霍林郭勒市| 双流县| 喜德县| 荥经县| 九龙坡区| 丘北县| 信宜市| 谷城县| 民县| 宣城市| 南投县| 武清区| 泸定县| 霍山县| 霍林郭勒市| 临洮县| 宜黄县| 华池县| 葫芦岛市|