91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么用Python爬蟲下載整本小說

發布時間:2021-08-31 17:47:33 來源:億速云 閱讀:260 作者:chen 欄目:大數據

這篇文章主要介紹“怎么用Python爬蟲下載整本小說”,在日常操作中,相信很多人在怎么用Python爬蟲下載整本小說問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”怎么用Python爬蟲下載整本小說”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!


1.首先第一步,導入兩個我們需要的包


# 用于獲取網頁的html
from urllib import request
# 用于解析html
from bs4 import BeautifulSoup
  2. 我們來分析一下,我們要抓取的小說頁面


怎么用Python爬蟲下載整本小說

(廣告還挺顯眼的)

我們看下這個界面然后再來看看html源碼

怎么用Python爬蟲下載整本小說

我們會發現,我框住的地方正是我們所需要的地方,但是注意上面的最新章節和我們的正式的小說目錄也就是下面的地方,他們都處于<div  class='box1'>中,待會大家可以看看我是怎么處理的。


然后再來看看小說閱讀的界面:

怎么用Python爬蟲下載整本小說

這個界面就很簡單了,我們來看看HTML源碼:

怎么用Python爬蟲下載整本小說

很容易看到<h2>標簽中的正是每一章的標題,<p>標簽中的也就是正文


OK,經過我們初步分析,我們可以開始寫代碼了!


3.首先我們寫出獲取網頁html源碼的一個方法:

# 得到網頁的html
def getHtml(url):
   url = url
   res = request.urlopen(url)
   res = res.read().decode()
   # print(res)
   return res

這個方法傳入一個url,會返回一個html源碼

4.然后我們再來寫一下,獲取整本小說所有章節的鏈接的方法:

# 解析小說章節頁面,獲取所有章節的子鏈接def jsoupUrl(html):
   # 獲取soup對象
   url_xiaoshuo = BeautifulSoup(html)
   # 因為我們要拿取class為box1中的div
   class_dict = {'class': 'box1'}
   url_xiaoshuo = url_xiaoshuo.find_all('div', attrs=class_dict)
   # 因為分析html中的代碼可以發現div的class為box1的有兩個,通過上面的代碼返回的是一個list格式的結果,所以下面的索引應該是1
   # 我們要獲取li中的值,所以find_all,這個方法返回的是一個list集合
   url_xiaoshuo = url_xiaoshuo[1].find_all('li')
   # print(url_xiaoshuo)
   # 創建一個集合,用于存放每個章節的鏈接
   url_xs = []
   for item in url_xiaoshuo:
       # 獲取每個元素中的href值
       url = item.a['href']
       # 將值傳入url_xs集合中
       url_xs.append(url)
   return url_xs

具體的解釋,我已經寫在注釋里了,不懂的可以在公眾號后臺留言

5.我們獲取到每個章節的鏈接之后,我們就需要把每一章節的內容給弄下來并且把它寫入到txt文本而且每個文本的標題為章節的標題

# 解析小說每個章節的的主要內容
def jsoupXiaoshuo(list):
   for item in list:
       html = getHtml(item)
       html = BeautifulSoup(html)
       # 獲取小說標題
       title = html.h2.get_text()
       xiaoshuo = html.find_all('p')

       for item in xiaoshuo:
           str = item.get_text()
           # open中的第二個參數是讓每一次的字符串接連到上一個字符串,千萬不能是w
           with open(title + '.txt', 'a') as f:
               f.write(str+'\n')

6.最后我們再main方法中運行這幾個方法即可:

if __name__ == '__main__':
   html = getHtml("http://www.136book.com/dadaozhaotian/")

   url_xs = jsoupUrl(html)

   jsoupXiaoshuo(url_xs)

運行出來的結果:

怎么用Python爬蟲下載整本小說

到此,關于“怎么用Python爬蟲下載整本小說”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

习水县| 图木舒克市| 仲巴县| 东方市| 图们市| 化州市| 宁海县| 古交市| 泾阳县| 澄迈县| 怀仁县| 绥江县| 沧州市| 株洲县| 永川市| 镇原县| 武清区| 齐齐哈尔市| 潼关县| 额敏县| 阿合奇县| 瑞金市| 新田县| 苗栗县| 称多县| 博湖县| 嘉义市| 旬邑县| 邹城市| 济宁市| 齐齐哈尔市| 广灵县| 丹寨县| 大田县| 舒兰市| 延川县| 连江县| 大关县| 任丘市| 湘潭县| 聂荣县|