91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

用PYTHON爬蟲簡單爬取網絡小說的示例

發布時間:2020-11-21 13:37:48 來源:億速云 閱讀:267 作者:小新 欄目:編程語言

這篇文章主要介紹用PYTHON爬蟲簡單爬取網絡小說的示例,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

用PYTHON爬蟲簡單爬取網絡小說。

這里是17K小說網上,隨便找了一本小說,名字是《千萬大獎》。

里面主要是三個函數:

1、get_download_url() 用于獲取該小說的所有章節的URL。

分析了該小說的目錄頁http://www.17k.com/list/2819620.html的HTML源碼,發現其目錄是包含在Volume里的A標簽合集。所以就提取出了URLS列表。

2、get_contents(target) 用于獲取小說指定章節的正文內容

分析了小說中第一章節的頁面http://www.17k.com/chapter/2819620/34988369.html,發現其正文內容包含在P標簽中,正文標題包含在H1標簽中,經過對換行等處理,得到正文內容。傳入參數是上一函數得到的URL。

3、writer(name, path, text) 用于將得到的正文內容和章節標題寫入到千萬大獎.txt

理論上,該簡單爬蟲可以爬取該網站的任意小說。

from bs4 import BeautifulSoup
import requests, sys
'''
遇到不懂的問題?Python學習交流群:821460695滿足你的需求,資料都已經上傳群文件,可以自行下載!
'''
target='http://www.17k.com/list/2819620.html'
server='http://www.17k.com'
urls=[]

def get_download_url():
    req = requests.get(url = target)
    html = req.text
    div_bf = BeautifulSoup(html,'lxml')
    div = div_bf.find_all('dl', class_ = 'Volume')
    a_bf = BeautifulSoup(str(div[0]),'lxml')
    a = a_bf.find_all('a')
    for each in a[1:]:
        urls.append(server + each.get('href'))


def get_contents(target):
        req = requests.get(url = target)
        html = req.text
        bf = BeautifulSoup(html,'lxml')
        title=bf.find_all('div', class_ = 'readAreaBox content')
        title_bf = BeautifulSoup(str(title[0]),'lxml')
        title = title_bf.find_all('h2')
        title=str(title[0]).replace('<h2>','')
        title=str(title).replace('</h2>','')
        title=str(title).replace(' ','')
        title=str(title).replace('\n','')
        texts = bf.find_all('div', class_ = 'p')
        texts=str(texts).replace('<br/>','\n')
        texts=texts[:texts.index('本書首發來自17K小說網,第一時間看正版內容!')]
        texts=str(texts).replace('                                          ','')
        return title,str(texts[len('[<div class="p">'):])

def writer(name, path, text):
        write_flag = True
        with open(path, 'a', encoding='utf-8') as f:
            f.write(name + '\n')
            f.writelines(text)
            f.write('\n')


#title,content=get_contents(target)
#print(title,content)
#writer(title,title+".txt",content)
get_download_url()
#print(urls)
i=1
for url in urls:
    title,content=get_contents(url)
    writer(title,"千萬大獎.txt",content)
    print(str(int(i/len(urls)*100))+"%")
    i+=1

以上是用PYTHON爬蟲簡單爬取網絡小說的示例的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

芮城县| 普兰县| 昌图县| 甘洛县| 德安县| 武城县| 上思县| 扶绥县| 虹口区| 松阳县| 永州市| 永仁县| 普安县| 韩城市| 商水县| 双牌县| 安义县| 绥化市| 称多县| 柳州市| 磴口县| 恩施市| 昭苏县| 泰顺县| 博乐市| 苏尼特左旗| 留坝县| 准格尔旗| 登封市| 怀来县| 灵川县| 绥江县| 正定县| 九江县| 平阴县| 麻江县| 浏阳市| 全南县| 惠水县| 韶山市| 芜湖市|