91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

使用PyCharm怎么爬取小說

發布時間:2021-04-06 15:40:50 來源:億速云 閱讀:558 作者:Leah 欄目:開發技術

使用PyCharm怎么爬取小說?針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

爬取小說的思路:

 1.獲取小說地址

本文以搜書網一小說為例《噓,梁上有王妃!》
目錄網址:https://www.soshuw.com/XuLiangShangYouWangFei/
加載需要的包:

import re
from bs4 import BeautifulSoup as ds
import requests

獲取小說目錄文件,返回<Response [200]>,表示可正常爬取該網頁

base_url='https://www.soshuw.com/XuLiangShangYouWangFei/'
chapter_html=requests.get(base_url)
print(chapter_html)

2.分析小說地址結構

解析目錄網頁 , 輸出結果為目錄網頁的源代碼

chapter_page_html=ds(chapter_page,'lxml')
print(chapter_page)

打開目錄網頁,發現在正文的目錄前面有一個最新章節目錄(這里有九個章節),再完整的目錄中是包含最新章節的,所以這里最新章節是不需要的。

使用PyCharm怎么爬取小說

在網頁單擊右鍵選擇“檢查”(或者“屬性”,不同的瀏覽器的叫法不一致,我用的是IE)選擇“元素”列,鼠標再右側代碼塊上移動時。左側網頁會高亮顯示其對應網頁區域,找到完整目錄對應的代碼塊。如下圖:

使用PyCharm怎么爬取小說

完整目錄的錨有兩個,分別是class="novel_list"和id=“novel108799”,仔細觀察后發現class不唯一,所以我們選用id提取該塊內容

使用PyCharm怎么爬取小說

將完整目錄塊提取出來

chapter_novel=chapter_page.find(id="novel108799")
print(chapter_novel)

結果如下(僅部分結果):

使用PyCharm怎么爬取小說

對比小說章節內容網址和目錄網址(base_url)發現,我們只需要將base_url和章節內容網址的后半段拼接到一起就可以得到完整的章節內容網址

3.拼接地址

利用正則語言庫將地址后半段提取出來

chapter_novel_str=str(chapter_novel)
regx = '<dd><a href="/XuLiangShangYouWangFei(.*?)"'
chapter_href_list = re.findall(regx, chapter_novel_str)
print(chapter_href_list)

拼接url:
       定義一個列表chapter_url_list接收完整地址

chapter_url_list = []
for i in chapter_href_list:
 url=base_url+i
 chapter_url_list.append(url)
print(chapter_url_list)

4.分析章節內容結構

打開章節,右鍵→“屬性”,查看內容結構,發現小說正文有class和id兩個錨,class是不變的,id隨著章節而變化,所以我們用class提取正文

使用PyCharm怎么爬取小說

提取正文段

chapter_novel=chapter_page.find(id="novel108799")
print(chapter_novel)

提取正文文本和標題

body_html=requests.get('https://www.soshuw.com/XuLiangShangYouWangFei/3647144.html')
body_page=ds(body_html.content,'lxml')
body = body_page.find(class_='content')
body_content=str(body)
print(body_content)
body_regx='<br/> (.*?)\n'
content_list=re.findall(body_regx,body_content)
print(content_list)
title_regx = '<h2>(.*?)</h2>'
title = re.findall(title_regx, body_html.text)
print(title)

5.保存文本

with open('1.txt', 'a+') as f:
 f.write('\n\n')
 f.write(title[0] + '\n')
 f.write('\n\n')
 for e in content_list:
  f.write(e + '\n')
print('{} 爬取完畢'.format(title[0]))

6.完整代碼

import re
from bs4 import BeautifulSoup as ds
import requests
base_url='https://www.soshuw.com/XuLiangShangYouWangFei'
chapter_html=requests.get(base_url)
chapter_page=ds(chapter_html.content,'lxml')
chapter_novel=chapter_page.find(id="novel108799")
#print(chapter_novel)
chapter_novel_str=str(chapter_novel)
regx = '<dd><a href="/XuLiangShangYouWangFei(.*?)"'
chapter_href_list = re.findall(regx, chapter_novel_str)
#print(chapter_href_list)
chapter_url_list = []
for i in chapter_href_list:
 url=base_url+i
 chapter_url_list.append(url)
#print(chapter_url_list)

for u in chapter_url_list:
 body_html=requests.get(u)
 body_page=ds(body_html.content,'lxml')
 body = body_page.find(class_='content')
 body_content=str(body)
 # print(body_content)
 body_regx='<br/> (.*?)\n'
 content_list=re.findall(body_regx,body_content)
 #print(content_list)
 title_regx = '<h2>(.*?)</h2>'
 title = re.findall(title_regx, body_html.text)
 #print(title)
 with open('1.txt', 'a+') as f:
  f.write('\n\n')
  f.write(title[0] + '\n')
  f.write('\n\n')
  for e in content_list:
   f.write(e + '\n')
 print('{} 爬取完畢'.format(title[0]))

關于使用PyCharm怎么爬取小說問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

包头市| 尉犁县| 孝义市| 佛学| 淮南市| 伊川县| 宜城市| 商河县| 读书| 资中县| 津南区| 罗甸县| 临海市| 黄龙县| 灌南县| 沙河市| 遂平县| 祁连县| 平乡县| 兴化市| 岱山县| 荥阳市| 开平市| 个旧市| 西乡县| 广南县| 汉中市| 志丹县| 嘉黎县| 东源县| 南昌县| 晋江市| 海淀区| 方正县| 定边县| 成都市| 浏阳市| 长海县| 曲靖市| 仪陇县| 会理县|