91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python爬蟲:如何快速掌握Python爬蟲核心技術,批量爬取網絡圖片

發布時間:2020-08-05 11:29:47 來源:ITPUB博客 閱讀:160 作者:千鋒Python唐小強 欄目:編程語言

對于爬蟲,很多伙伴首選的可能就是Python了吧,我們在學習Python爬蟲的時候得有側重點,這篇文章教大家如何快速掌握 Python爬蟲的核心!有不清楚的地方,可以留言!

1. 概述

本文主要實現一個簡單的爬蟲,目的是從一個百度貼吧頁面下載圖片。下載圖片的步驟如下:

(1)獲取網頁html文本內容;

(2)分析html中圖片的html標簽特征,用正則解析出所有的圖片url鏈接列表;

(3)根據圖片的url鏈接列表將圖片下載到本地文件夾中。

2. urllib+re實現

#!/usr/bin/python
# coding:utf-8
# 實現一個簡單的爬蟲,爬取百度貼吧圖片
import urllib
import re
# 根據url獲取網頁html內容
def getHtmlContent(url): 
 page = urllib.urlopen(url)
 return page.read()
# 從html中解析出所有jpg圖片的url
# 百度貼吧html中jpg圖片的url格式為:<img ... src="XXX.jpg" width=...>
def getJPGs(html): 
 # 解析jpg圖片url的正則 
 jpgReg = re.compile(r'<img.+?src="(.+?\.jpg)" width') # 注:這里最后加一個'width'是為了提高匹配精確度 
 # 解析出jpg的url列表 
 jpgs = re.findall(jpgReg,html)
 return jpgs
# 用圖片url下載圖片并保存成制定文件名
defdownloadJPG(imgUrl,fileName): 
 urllib.urlretrieve(imgUrl,fileName)
 # 批量下載圖片,默認保存到當前目錄下
def batchDownloadJPGs(imgUrls,path ='./'): 
 # 用于給圖片命名 
 count = 1 
 for url in imgUrls:
 downloadJPG(url,''.join([path,'{0}.jpg'.format(count)]))
 count = count + 1
# 封裝:從百度貼吧網頁下載圖片
def download(url): 
 html = getHtmlContent(url)
 jpgs = getJPGs(html)
 batchDownloadJPGs(jpgs)
def main(): 
 url = 'http://tieba.baidu.com/p/2256306796' 
 download(url)
if __name__ == '__main__':
 main()

運行上面腳本,過幾秒種之后完成下載,可以在當前目錄下看到圖片已經下載好了:


Python爬蟲:如何快速掌握Python爬蟲核心技術,批量爬取網絡圖片


3. requests + re實現

下面用requests庫實現下載,把getHtmlContent和downloadJPG函數都用requests重新實現。

#!/usr/bin/python
# coding:utf-8
# 實現一個簡單的爬蟲,爬取百度貼吧圖片
import requests
import re
# 根據url獲取網頁html內容
def getHtmlContent(url): 
 page = requests.get(url):
 return page.text
# 從html中解析出所有jpg圖片的url
# 百度貼吧html中jpg圖片的url格式為:<img ... src="XXX.jpg" width=...>
def getJPGs(html): 
 # 解析jpg圖片url的正則 
 jpgReg = re.compile(r'<img.+?src="(.+?\.jpg)" width') # 注:這里最后加一個'width'是為了提高匹配精確度 
 # 解析出jpg的url列表 
 jpgs = re.findall(jpgReg,html)
 return jpgs
# 用圖片url下載圖片并保存成制定文件名
def downloadJPG(imgUrl,fileName): 
 # 可自動關閉請求和響應的模塊 
 from contextlib import closing
 with closing(requests.get(imgUrl,stream = True)) as resp:
 with open(fileName,'wb') as f:
 for chunk in resp.iter_content(128):
 f.write(chunk)
# 批量下載圖片,默認保存到當前目錄下
defbatchDownloadJPGs(imgUrls,path ='./'): 
 # 用于給圖片命名 
 count = 1 
 for url in imgUrls:
 downloadJPG(url,''.join([path,'{0}.jpg'.format(count)]))
 print '下載完成第{0}張圖片'.format(count)
 count = count + 1
# 封裝:從百度貼吧網頁下載圖片
def download(url): 
 html = getHtmlContent(url)
 jpgs = getJPGs(html)
 batchDownloadJPGs(jpgs)
def main(): 
 url = 'http://tieba.baidu.com/p/2256306796' 
 download(url)
if __name__ == '__main__':
 main()

輸出:和前面一樣。

希望這次簡單的python爬蟲小案例能幫到初入 Python爬蟲的你!

關注并回復Python爬蟲,可領取全套Python爬蟲視頻教程,或者私信我也可以哦!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

仪陇县| 永定县| 克东县| 阿拉善左旗| 潮安县| 铜鼓县| 长葛市| 肥东县| 秦皇岛市| 遵化市| 海晏县| 贡觉县| 于田县| 绵阳市| 藁城市| 宜宾市| 泽库县| 四子王旗| 丹寨县| 深州市| 虹口区| 山东省| 兴业县| 仁寿县| 旺苍县| 理塘县| 蕉岭县| 彭州市| 屯昌县| 龙里县| 双柏县| 柳江县| 芜湖县| 沐川县| 三门峡市| 安陆市| 黔南| 郧西县| 克什克腾旗| 芜湖市| 班玛县|