91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python中多線程爬取豆瓣影評API接口的方法

發布時間:2020-08-10 15:39:00 來源:億速云 閱讀:231 作者:小新 欄目:編程語言

這篇文章主要介紹Python中多線程爬取豆瓣影評API接口的方法,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

Python多線程豆瓣影評API接口爬蟲

爬蟲庫

1.使用簡單的requests庫,這是一個阻塞的庫,速度比較慢。

2.解析使用XPATH表達式。

3.總體采用類的形式。

多線程

使用concurrent.future并發模塊,建立線程池,把future對象扔進去執行即可實現并發爬取效果。

數據存儲

使用Python ORM sqlalchemy保存到數據庫,也可以使用自帶的csv模塊存在CSV中。

API接口

因為API接口存在數據保護情況,一個電影的每一個分類只能抓取前25頁,全部評論、好評、中評、差評所有分類能爬100頁,每頁有20個數據,即最多為兩千條數據。

因為時效性原因,不保證代碼能爬到數據,只是給大家一個參考思路,上代碼:

from datetime import datetime
import random
import csv
from concurrent.futures import ThreadPoolExecutor, as_completed
from lxml import etree
import pymysql
import requests
from models import create_session, Comments
#隨機UA
USERAGENT = [
    'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1',
    'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 
    Safari/537.36',
    'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6.0',
    'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50',
    'Opera/9.80 (Windows NT 6.1; U; zh-cn) Presto/2.9.168 Version/11.50',
    'Mozilla/5.0 (Windows; U; Windows NT 6.1; ) AppleWebKit/534.12 (KHTML, like Gecko) Maxthon/3.0 Safari/534.12'
]
class CommentFetcher:
    headers = {'User-Agent': ''}
    cookie = ''
    cookies = {'cookie': cookie}
    # cookie為登錄后的cookie,需要自行復制
    base_node = '//div[@class="comment-item"]'
    def __init__(self, movie_id, start, type=''):
        '''
        :type: 全部評論:'', 好評:h 中評:m 差評:l
        :movie_id: 影片的ID號
        :start: 開始的記錄數,0-480
        '''
        self.movie_id = movie_id
        self.start = start
        self.type = type
        self.url = 'https://movie.douban.com/subject/{id}/comments?start={start}&limit=20&sort=new_score\
        &status=P&percent_type={type}&comments_only=1'.format(
            id=str(self.movie_id),
            start=str(self.start),
            type=self.type
        )
        #創建數據庫連接
        self.session = create_session()
    #隨機useragent
    def _random_UA(self):
        self.headers['User-Agent'] = random.choice(USERAGENT)
    #獲取api接口,使用get方法,返回的數據為json數據,需要提取里面的HTML
    def _get(self):
        self._random_UA()
        res = ''
        try:
            res = requests.get(self.url, cookies=self.cookies, headers=self.headers)
            res = res.json()['html']
        except Exception as e:
            print('IP被封,請使用代理IP')
        print('正在獲取{} 開始的記錄'.format(self.start))
        return res
    def _parse(self):
        res = self._get()
        dom = etree.HTML(res)
        #id號
        self.id = dom.xpath(self.base_node + '/@data-cid')
        #用戶名
        self.username = dom.xpath(self.base_node + '/div[@class="avatar"]/a/@title')
        #用戶連接
        self.user_center = dom.xpath(self.base_node + '/div[@class="avatar"]/a/@href')
        #點贊數
        self.vote = dom.xpath(self.base_node + '//span[@class="votes"]/text()')
        #星級
        self.star = dom.xpath(self.base_node + '//span[contains(@class,"rating")]/@title')
        #發表時間
        self.time = dom.xpath(self.base_node + '//span[@class="comment-time "]/@title')
        #評論內容 所有span標簽class名為short的節點文本
        self.content = dom.xpath(self.base_node + '//span[@class="short"]/text()')
    #保存到數據庫
    def save_to_database(self):
        self._parse()
        for i in range(len(self.id)):
            try:
                comment = Comments(
                    id=int(self.id[i]),
                    username=self.username[i],
                    user_center=self.user_center[i],
                    vote=int(self.vote[i]),
                    star=self.star[i],
                    time=datetime.strptime(self.time[i], '%Y-%m-%d %H:%M:%S'),
                    content=self.content[i]
                )
                self.session.add(comment)
                self.session.commit()
                return 'finish'
            except pymysql.err.IntegrityError as e:
                print('數據重復,不做任何處理')
            except Exception as e:
                #數據添加錯誤,回滾
                self.session.rollback()
            finally:
                #關閉數據庫連接
                self.session.close()
    #保存到csv
    def save_to_csv(self):
        self._parse()
        f = open('comment.csv', 'w', encoding='utf-8')
        csv_in = csv.writer(f, dialect='excel')
        for i in range(len(self.id)):
            csv_in.writerow([
                int(self.id[i]),
                self.username[i],
                self.user_center[i],
                int(self.vote[i]),
                self.time[i],
                self.content[i]
            ])
        f.close()
if __name__ == '__main__':
    with ThreadPoolExecutor(max_workers=4) as executor:
        futures = []
        for i in ['', 'h', 'm', 'l']:
            for j in range(25):
                fetcher = CommentFetcher(movie_id=26266893, start=j * 20, type=i)
                futures.append(executor.submit(fetcher.save_to_csv))
        for f in as_completed(futures):
            try:
                res = f.done()
                if res:
                    ret_data = f.result()
                    if ret_data == 'finish':
                        print('{} 成功保存數據'.format(str(f)))
            except Exception as e:
                f.cancel()

以上是Python中多線程爬取豆瓣影評API接口的方法的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

广丰县| 民乐县| 新密市| 天峨县| 双桥区| 上犹县| 巴东县| 延长县| 荥经县| 长治县| 精河县| 诸城市| 满洲里市| 兰州市| 太谷县| 水富县| 晋中市| 封丘县| 西吉县| 双鸭山市| 文水县| 明水县| 武义县| 甘谷县| 彭阳县| 旬阳县| 麻城市| 大方县| 武宣县| 卢氏县| 凯里市| 确山县| 广宗县| 中西区| 宿松县| 鄯善县| 如皋市| 岐山县| 婺源县| 抚远县| 蕉岭县|