91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python如何爬取新聞資訊

發布時間:2021-11-25 14:50:08 來源:億速云 閱讀:280 作者:小新 欄目:大數據

這篇文章主要為大家展示了“Python如何爬取新聞資訊”,內容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領大家一起研究并學習一下“Python如何爬取新聞資訊”這篇文章吧。

前言

一個簡單的Python資訊采集案例,列表頁到詳情頁,到數據保存,保存為txt文檔,網站網頁結構算是比較規整,簡單清晰明了,資訊新聞內容的采集和保存!

Python如何爬取新聞資訊

資料就放在群文件里等你來拿

應用到的庫

requests,time,re,UserAgent,etree

import requests,time,re
from fake_useragent import UserAgent
from lxml import etree

列表頁,鏈接xpath解析

href_list=req.xpath('//ul[@class="news-list"]/li/a/@href')

詳情頁

Python如何爬取新聞資訊

內容xpath解析

h3=req.xpath('//div[@class="title-box"]/h3/text()')[0]
author=req.xpath('//div[@class="title-box"]/span[@class="news-from"]/text()')[0]
details=req.xpath('//div[@class="content-l detail"]/p/text()')

內容格式化處理

detail='\n'.join(details)

標題格式化處理,替換非法字符

pattern = r"[\/\\\:\*\?\"\<\>\|]"
new_title = re.sub(pattern, "_", title)  # 替換為下劃線

保存數據,保存為txt文本

def save(self,h3, author, detail):
    with open(f'{h3}.txt','w',encoding='utf-8') as f:
        f.write('%s%s%s%s%s'%(h3,'\n',detail,'\n',author))


    print(f"保存{h3}.txt文本成功!")

遍歷數據采集,yield處理

def get_tasks(self):
    data_list = self.parse_home_list(self.url)
    for item in data_list:
        yield item

程序運行效果

Python如何爬取新聞資訊

附源碼參考:

#研招網考研資訊采集
#20200710 by微信:huguo00289
# -*- coding: UTF-8 -*-

import requests,time,re
from fake_useragent import UserAgent
from lxml import etree

class RandomHeaders(object):
    ua=UserAgent()
    @property
    def random_headers(self):
        return {
            'User-Agent': self.ua.random,
        }

class Spider(RandomHeaders):
    def __init__(self,url):
        self.url=url


    def parse_home_list(self,url):
        response=requests.get(url,headers=self.random_headers).content.decode('utf-8')
        req=etree.HTML(response)
        href_list=req.xpath('//ul[@class="news-list"]/li/a/@href')
        print(href_list)
        for href in href_list:
            item = self.parse_detail(f'https://yz.chsi.com.cn{href}')
            yield item


    def parse_detail(self,url):
        print(f">>正在爬取{url}")
        try:
            response = requests.get(url, headers=self.random_headers).content.decode('utf-8')
            time.sleep(2)
        except Exception as e:
            print(e.args)
            self.parse_detail(url)
        else:
            req = etree.HTML(response)
            try:
                h3=req.xpath('//div[@class="title-box"]/h3/text()')[0]
                h3=self.validate_title(h3)
                author=req.xpath('//div[@class="title-box"]/span[@class="news-from"]/text()')[0]
                details=req.xpath('//div[@class="content-l detail"]/p/text()')
                detail='\n'.join(details)
                print(h3, author, detail)
                self.save(h3, author, detail)
                return h3, author, detail
            except IndexError:
                print(">>>采集出錯需延時,5s后重試..")
                time.sleep(5)
                self.parse_detail(url)


    @staticmethod
    def validate_title(title):
        pattern = r"[\/\\\:\*\?\"\<\>\|]"
        new_title = re.sub(pattern, "_", title)  # 替換為下劃線
        return new_title



    def save(self,h3, author, detail):
        with open(f'{h3}.txt','w',encoding='utf-8') as f:
            f.write('%s%s%s%s%s'%(h3,'\n',detail,'\n',author))

        print(f"保存{h3}.txt文本成功!")


    def get_tasks(self):
        data_list = self.parse_home_list(self.url)
        for item in data_list:
            yield item




if __name__=="__main__":
    url="https://yz.chsi.com.cn/kyzx/jyxd/"
    spider=Spider(url)
    for data in spider.get_tasks():
        print(data)

以上是“Python如何爬取新聞資訊”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

永州市| 巴彦县| 安化县| 涿鹿县| 宝丰县| 大关县| 柯坪县| 天镇县| 临城县| 古交市| 华池县| 修武县| 湖口县| 曲周县| 平武县| 吉水县| 墨竹工卡县| 阿尔山市| 西昌市| 武城县| 葵青区| 福鼎市| 横山县| 阜平县| 泸溪县| 巴南区| 汶川县| 梓潼县| 道孚县| 岑溪市| 丹巴县| 若尔盖县| 拉萨市| 西充县| 社旗县| 开封市| 巴林右旗| 龙海市| 涡阳县| 浮山县| 中山市|