您好,登錄后才能下訂單哦!
使用PyCharm怎么爬取小說?針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。
本文以搜書網一小說為例《噓,梁上有王妃!》
目錄網址:https://www.soshuw.com/XuLiangShangYouWangFei/
加載需要的包:
import re from bs4 import BeautifulSoup as ds import requests
獲取小說目錄文件,返回<Response [200]>,表示可正常爬取該網頁
base_url='https://www.soshuw.com/XuLiangShangYouWangFei/' chapter_html=requests.get(base_url) print(chapter_html)
解析目錄網頁 , 輸出結果為目錄網頁的源代碼
chapter_page_html=ds(chapter_page,'lxml') print(chapter_page)
打開目錄網頁,發現在正文的目錄前面有一個最新章節目錄(這里有九個章節),再完整的目錄中是包含最新章節的,所以這里最新章節是不需要的。
在網頁單擊右鍵選擇“檢查”(或者“屬性”,不同的瀏覽器的叫法不一致,我用的是IE)選擇“元素”列,鼠標再右側代碼塊上移動時。左側網頁會高亮顯示其對應網頁區域,找到完整目錄對應的代碼塊。如下圖:
完整目錄的錨有兩個,分別是class="novel_list"和id=“novel108799”,仔細觀察后發現class不唯一,所以我們選用id提取該塊內容
將完整目錄塊提取出來
chapter_novel=chapter_page.find(id="novel108799") print(chapter_novel)
結果如下(僅部分結果):
對比小說章節內容網址和目錄網址(base_url)發現,我們只需要將base_url和章節內容網址的后半段拼接到一起就可以得到完整的章節內容網址
利用正則語言庫將地址后半段提取出來
chapter_novel_str=str(chapter_novel) regx = '<dd><a href="/XuLiangShangYouWangFei(.*?)"' chapter_href_list = re.findall(regx, chapter_novel_str) print(chapter_href_list)
拼接url:
定義一個列表chapter_url_list接收完整地址
chapter_url_list = [] for i in chapter_href_list: url=base_url+i chapter_url_list.append(url) print(chapter_url_list)
打開章節,右鍵→“屬性”,查看內容結構,發現小說正文有class和id兩個錨,class是不變的,id隨著章節而變化,所以我們用class提取正文
提取正文段
chapter_novel=chapter_page.find(id="novel108799") print(chapter_novel)
提取正文文本和標題
body_html=requests.get('https://www.soshuw.com/XuLiangShangYouWangFei/3647144.html') body_page=ds(body_html.content,'lxml') body = body_page.find(class_='content') body_content=str(body) print(body_content) body_regx='<br/> (.*?)\n' content_list=re.findall(body_regx,body_content) print(content_list) title_regx = '<h2>(.*?)</h2>' title = re.findall(title_regx, body_html.text) print(title)
with open('1.txt', 'a+') as f: f.write('\n\n') f.write(title[0] + '\n') f.write('\n\n') for e in content_list: f.write(e + '\n') print('{} 爬取完畢'.format(title[0]))
import re from bs4 import BeautifulSoup as ds import requests base_url='https://www.soshuw.com/XuLiangShangYouWangFei' chapter_html=requests.get(base_url) chapter_page=ds(chapter_html.content,'lxml') chapter_novel=chapter_page.find(id="novel108799") #print(chapter_novel) chapter_novel_str=str(chapter_novel) regx = '<dd><a href="/XuLiangShangYouWangFei(.*?)"' chapter_href_list = re.findall(regx, chapter_novel_str) #print(chapter_href_list) chapter_url_list = [] for i in chapter_href_list: url=base_url+i chapter_url_list.append(url) #print(chapter_url_list) for u in chapter_url_list: body_html=requests.get(u) body_page=ds(body_html.content,'lxml') body = body_page.find(class_='content') body_content=str(body) # print(body_content) body_regx='<br/> (.*?)\n' content_list=re.findall(body_regx,body_content) #print(content_list) title_regx = '<h2>(.*?)</h2>' title = re.findall(title_regx, body_html.text) #print(title) with open('1.txt', 'a+') as f: f.write('\n\n') f.write(title[0] + '\n') f.write('\n\n') for e in content_list: f.write(e + '\n') print('{} 爬取完畢'.format(title[0]))
關于使用PyCharm怎么爬取小說問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注億速云行業資訊頻道了解更多相關知識。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。