91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python包中的urllib網絡請求怎么實現

發布時間:2022-04-19 13:36:24 來源:億速云 閱讀:172 作者:iii 欄目:開發技術

這篇文章主要講解了“python包中的urllib網絡請求怎么實現”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“python包中的urllib網絡請求怎么實現”吧!

一、簡介

  • 是一個 python 內置包,不需要額外安裝即可使用

  • urllib 是 Python 標準庫中用于網絡請求的庫,內置四個模塊,分別是

  • urllib.request:用來打開和讀取 url,可以用它來模擬發送請求,獲取網頁響應內容

  • urllib.error:用來處理 urllib.request 引起的異常,保證程序的正常執行

  • urllib.parse:用來解析 url,可以對 url 進行拆分、合并等

  • urllib.robotparse:用來解析 robots.txt 文件,判斷網站是否能夠進行爬取

二、發起請求

import urllib.request

# 方法一
resp = urllib.request.urlopen('http://www.baidu.com', timeout=1)
print(resp.read().decode('utf-8'))

# 方法二
request = urllib.request.Request('http://www.baidu.com')
response = urllib.request.urlopen(request)
print(response.read().decode('utf-8'))

三、攜帶參數請求

  • 請求某些網頁時需要攜帶一些數據

import urllib.parse
import urllib.request

params = {
'name':'autofelix',
'age':'25'
}

data = bytes(urllib.parse.urlencode(params), encoding='utf8')
response = urllib.request.urlopen("http://www.baidu.com/", data=data)
print(response.read().decode('utf-8'))

四、獲取響應數據

import urllib.request

resp = urllib.request.urlopen('http://www.baidu.com')
print(type(resp))
print(resp.status)
print(resp.geturl())
print(resp.getcode())
print(resp.info())
print(resp.getheaders())
print(resp.getheader('Server'))

五、設置headers

import urllib.request

headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36'
}
request = urllib.request.Request(url="http://tieba.baidu.com/", headers=headers)
response = urllib.request.urlopen(request)
print(response.read().decode('utf-8'))

六、使用代理

import urllib.request

proxys = urllib.request.ProxyHandler({
'http': 'proxy.cn:8080',
'https': 'proxy.cn:8080'
})

opener = urllib.request.build_opener(proxys)
urllib.request.install_opener(opener)

request = urllib.request.Request(url="http://www.baidu.com/")
response = urllib.request.urlopen(request)
print(response.read().decode('utf-8'))

七、認證登錄

  • 有些網站需要攜帶賬號和密碼進行登錄之后才能繼續瀏覽網頁

import urllib.request

url = "http://www.baidu.com/"
user = 'autofelix'
password = '123456'
pwdmgr = urllib.request.HTTPPasswordMgrWithDefaultRealm()
pwdmgr.add_password(None,url,user,password)

auth_handler = urllib.request.HTTPBasicAuthHandler(pwdmgr)
opener = urllib.request.build_opener(auth_handler)
response = opener.open(url)
print(response.read().decode('utf-8'))

八、設置cookie

  • 如果請求的頁面每次需要身份驗證,我們可以使用 Cookies 來自動登錄,免去重復登錄驗證的操作

import http.cookiejar
import urllib.request

cookie = http.cookiejar.CookieJar()
handler = urllib.request.HTTPCookieProcessor(cookie)
opener = urllib.request.build_opener(handler)
response = opener.open("http://www.baidu.com/")

f = open('cookie.txt', 'a')
for item in cookie:
f.write(item.name+" = "+item.value+'\n')
f.close()

九、異常處理

from urllib import error, request

try:
resp = request.urlopen('http://www.baidu.com')
except error.URLError as e:
print(e.reason)

十、HTTP異常

from urllib import error, request

try:
resp = request.urlopen('http://www.baidu.com')
except error.HTTPError as e:
print(e.reason, e.code, e.headers, sep='\n')
except error.URLError as e:
print(e.reason)
else:
print('request successfully')

十一、超時異常

import socket, urllib.request, urllib.error

try:
resp = urllib.request.urlopen('http://www.baidu.com', timeout=0.01)
except urllib.error.URLError as e:
print(type(e.reason))
if isinstance(e.reason,socket.timeout):
print('time out')

十二、解析編碼

from urllib import parse

name = parse.quote('飛兔小哥')

# 轉換回來
parse.unquote(name)

十三、參數拼接

  • 在訪問url時,我們常常需要傳遞很多的url參數

  • 而如果用字符串的方法去拼接url的話,會比較麻煩

from urllib import parse

params = {'name': '飛兔', 'age': '27', 'height': '178'}
parse.urlencode(params)

十四、請求鏈接解析

from urllib.parse import urlparse

result = urlparse('http://www.baidu.com/index.html?user=autofelix')
print(type(result))
print(result)

十五、拼接鏈接

  • 如果拼接的是兩個鏈接,則以返回后面的鏈接

  • 如果拼接是一個鏈接和參數,則返回拼接后的內容

from urllib.parse import urljoin

print(urljoin('http://www.baidu.com', 'index.html'))

十六、字典轉換參數

from urllib.parse import urlencode

params = {
'name': 'autofelix',
'age': 27
}
baseUrl = 'http://www.baidu.com?'
print(baseUrl + urlencode(params))

感謝各位的閱讀,以上就是“python包中的urllib網絡請求怎么實現”的內容了,經過本文的學習后,相信大家對python包中的urllib網絡請求怎么實現這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

阳江市| 大港区| 洮南市| 河津市| 济阳县| 新晃| 汉寿县| 江西省| 天长市| 滦平县| 邛崃市| 青阳县| 共和县| 临澧县| 屯门区| 留坝县| 阿克陶县| 兰州市| 开阳县| 原平市| 都江堰市| 康保县| 象山县| 札达县| 建水县| 名山县| 内江市| 宜州市| 东平县| 土默特右旗| 蕉岭县| 烟台市| 大厂| 南昌县| 东辽县| 葵青区| 岳阳市| 内黄县| 玛曲县| 名山县| 调兵山市|