您好,登錄后才能下訂單哦!
這篇文章主要介紹“怎么用Python爬蟲下載整本小說”,在日常操作中,相信很多人在怎么用Python爬蟲下載整本小說問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”怎么用Python爬蟲下載整本小說”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
1.首先第一步,導入兩個我們需要的包
# 用于獲取網頁的html
from urllib import request
# 用于解析html
from bs4 import BeautifulSoup
2. 我們來分析一下,我們要抓取的小說頁面(廣告還挺顯眼的)
我們看下這個界面然后再來看看html源碼
我們會發現,我框住的地方正是我們所需要的地方,但是注意上面的最新章節和我們的正式的小說目錄也就是下面的地方,他們都處于<div class='box1'>中,待會大家可以看看我是怎么處理的。
然后再來看看小說閱讀的界面:
這個界面就很簡單了,我們來看看HTML源碼:
很容易看到<h2>標簽中的正是每一章的標題,<p>標簽中的也就是正文
OK,經過我們初步分析,我們可以開始寫代碼了!
3.首先我們寫出獲取網頁html源碼的一個方法:
# 得到網頁的html
def getHtml(url):
url = url
res = request.urlopen(url)
res = res.read().decode()
# print(res)
return res
這個方法傳入一個url,會返回一個html源碼
4.然后我們再來寫一下,獲取整本小說所有章節的鏈接的方法:
# 解析小說章節頁面,獲取所有章節的子鏈接
def jsoupUrl(html):
# 獲取soup對象
url_xiaoshuo = BeautifulSoup(html)
# 因為我們要拿取class為box1中的div
class_dict = {'class': 'box1'}
url_xiaoshuo = url_xiaoshuo.find_all('div', attrs=class_dict)
# 因為分析html中的代碼可以發現div的class為box1的有兩個,通過上面的代碼返回的是一個list格式的結果,所以下面的索引應該是1
# 我們要獲取li中的值,所以find_all,這個方法返回的是一個list集合
url_xiaoshuo = url_xiaoshuo[1].find_all('li')
# print(url_xiaoshuo)
# 創建一個集合,用于存放每個章節的鏈接
url_xs = []
for item in url_xiaoshuo:
# 獲取每個元素中的href值
url = item.a['href']
# 將值傳入url_xs集合中
url_xs.append(url)
return url_xs
具體的解釋,我已經寫在注釋里了,不懂的可以在公眾號后臺留言
5.我們獲取到每個章節的鏈接之后,我們就需要把每一章節的內容給弄下來并且把它寫入到txt文本而且每個文本的標題為章節的標題
# 解析小說每個章節的的主要內容
def jsoupXiaoshuo(list):
for item in list:
html = getHtml(item)
html = BeautifulSoup(html)
# 獲取小說標題
title = html.h2.get_text()
xiaoshuo = html.find_all('p')
for item in xiaoshuo:
str = item.get_text()
# open中的第二個參數是讓每一次的字符串接連到上一個字符串,千萬不能是w
with open(title + '.txt', 'a') as f:
f.write(str+'\n')
6.最后我們再main方法中運行這幾個方法即可:
if __name__ == '__main__':
html = getHtml("http://www.136book.com/dadaozhaotian/")
url_xs = jsoupUrl(html)
jsoupXiaoshuo(url_xs)
運行出來的結果:
到此,關于“怎么用Python爬蟲下載整本小說”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。