91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python3使用cookie免登錄爬取附件并下載

發布時間:2020-05-30 15:45:18 來源:網絡 閱讀:1370 作者:喵來個魚 欄目:編程語言
前言

由于一些論壇不登錄驗證,就不能查看帖子的內容和附件,所以需要登錄驗證,如果在代碼中添加登錄驗證,那就增加了代碼的復雜度,所以可以結合cookie來登錄然后爬取需要的資料

cookie的獲取
  • 使用chrome,登錄后在開發工具里查取
    python3使用cookie免登錄爬取附件并下載
#!/usr/bin/env python
# -*- coding:utf-8 -*-
"""
@author:Aiker Zhao
@file:jianli.py
@time:下午10:50
"""
import os
import re

import requests
from bs4 import BeautifulSoup
from requests.exceptions import RequestException
from hashlib import md5

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36',
    'Cookie': 'PHPSESSID=ui7unwxc3yf4glbdaqmat2ee00; __cfduid=de4fa38a23ad640f0bcdb4313560af62e1543723208; ape__Session=ui7uxxxxdfd4glbdaqmat2ee00; _ga=GA1.2.176343230234.1552443854'

}

def get_content():
    url = 'http://ask.xxxx.com/question/xxxx'   # url
    response = requests.get(url, headers=headers).text.replace('<i class="fa fa-paperclip"></i>', '')
    soup = BeautifulSoup(response, 'lxml')
    # div = soup.select('#aw-mod-body ueditor-p-reset')
    pattern = re.compile('<a\shref="(http://ask.apelearn.com/file.*?)".*?>(.*?)</a>', re.S)
    p = soup.find_all('a')
    for item in p:
        # print(str(item))
        result = re.findall(pattern, str(item))
        if result:
            # print(result)
            for i in result:
                url, name = i
                # print(i)
                yield {
                    'url': url,
                    'name': name
                }

def download_doc(url, name):
    print('正在下載', name, url)
    try:
        response = requests.get(url, headers=headers)
        if response.status_code == 200:
            save_doc(response.content, name)
        return None
    except RequestException:
        print('請求文檔出錯', url)
        return None

def save_doc(content, name):
    try:
        if name:
            name_1 = re.sub('[:?!!:?【】]', '', name).split('.')[0]  # 替換title中的特殊字符,避免建立文件出錯
            name_2 = name.split('.')[-1]
            dir = 'z:\\jianli2\\'
            if os.path.exists(dir):
                pass
            else:
                os.mkdir(dir)
            file_path = '{0}/{1}.{2}'.format(dir, name_1 + md5(content).hexdigest(), name_2)
            # file_path = '{0}/{1}'.format(dir, name)
            if not os.path.exists(file_path):
                with open(file_path, 'wb') as f:
                    f.write(content)
                    f.close()
    except OSError:
        pass

def main():
    # get_content()
    for f in get_content():
        url = f.get('url')
        name = f.get('name')
        download_doc(url, name)

if __name__ == '__main__':
    main()
運行腳本

python3使用cookie免登錄爬取附件并下載

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

古田县| 宁德市| 贡嘎县| 云和县| 亳州市| 五河县| 河北区| 勐海县| 宁波市| 萨嘎县| 聊城市| 元江| 永善县| 上犹县| 民丰县| 永福县| 五台县| 涪陵区| 泾源县| 陵川县| 德兴市| 南江县| 杭锦旗| 伊春市| 文成县| 天长市| 双鸭山市| 扎囊县| 渭源县| 长寿区| 泰顺县| 通化市| 阜康市| 自治县| 遵义市| 常山县| 平顺县| 泽普县| 巴南区| 梨树县| 鹿邑县|