91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python如何批量下載陰陽師網站壁紙

發布時間:2022-02-22 16:56:30 來源:億速云 閱讀:152 作者:iii 欄目:開發技術

這篇文章主要介紹“Python如何批量下載陰陽師網站壁紙”的相關知識,小編通過實際案例向大家展示操作過程,操作方法簡單快捷,實用性強,希望這篇“Python如何批量下載陰陽師網站壁紙”文章能幫助大家解決問題。

    代碼復制可直接使用,記得pip install下載requests和bs4

    最終版本

    # 引入系統類庫用于打開關閉文件
    import sys
    # 使用文檔解析類庫
    from bs4 import BeautifulSoup
    # 使用網絡請求類庫
    import requests
    
    #圖片保存目錄
    path = 'D:/陰陽師' 
    #陰陽師壁紙網站
    html_doc = "https://yys.163.com/media/picture.html" 
    
    # 請求
    requests_html_doc = requests.get(html_doc).text
    # 正則匹配所有href地址
    regex = re.compile('.*?href="(.*?)2732x2048.jpg" rel="external nofollow" ')
    urls = regex.findall(requests_html_doc)
    
    # set集合可以防止下載的圖片重復
    result = set()
    for i in urls:
        result.add(i)
    
    # 計數器用于圖片命名
    num = 0
    
    # 文件路徑、操作模式、編碼  # r''
    # 打開文件錄入圖片
    f = open(r'result.txt', 'w', encoding='utf-8')
    for a in urls:
        try:
            image_data = requests.get(a).content
            image_name = '{}.jpg'.format(num)  # 給每張圖片命名
            save_path = path + '/' + image_name  # 圖片的保存地址
            with open(save_path, 'wb') as f:
                f.write(image_data)
                print(image_name, '=======================>下載成功!!!')
                num = num+1  # 下一張圖片名字序號加一
        except:
            pass
    # 關閉文件錄入
    f.close()
    print("
    掃描結果已寫入到result.txt文件中
    ")

    過程

    借鑒代碼

    自己從0開始,沒有頭緒,而且對python掌握度不高,那先借鑒別人的代碼開始,第一篇借鑒的代碼如下

    # 引入系統類庫
    import sys
    # 使用文檔解析類庫
    from bs4 import BeautifulSoup
    # 使用網絡請求類庫
    import urllib.request
    path = 'D:/陰陽師'
    
    html_doc = "https://yys.163.com/media/picture.html"
    # 獲取請求
    req = urllib.request.Request(html_doc)
    # 打開頁面
    webpage = urllib.request.urlopen(req)
    
    # 讀取頁面內容
    html = webpage.read()
    # 解析成文檔對象
    soup = BeautifulSoup(html, 'html.parser')  # 文檔對象
    
    # 非法URL 1
    invalidLink1 = '#'
    # 非法URL 2
    invalidLink2 = 'javascript:void(0)'
    # set集合可以防止下載的圖片連接重復
    result = set()
    # 計數器用于圖片命名
    num = 0
    # 查找文檔中所有a標簽
    for k in soup.find_all('a'):
        # print(k)
        # 查找href標簽
        link = k.get('href')
        # 過濾沒找到的
        if(link is not None):
            # 過濾非法鏈接
            if link == invalidLink1:
                pass
            elif link == invalidLink2:
                pass
            elif link.find("javascript:") != -1:
                pass
            else:
                result.add(link)
    
    for a in result:
        # 文件路徑、操作模式、編碼  # r''
        f = open(r'result.txt', 'w', encoding='utf-8')
        # image_data = urllib.request.get(url=a).content
        image_data = requests.get(url=a).content
        image_name = '{}.jpg'.format(num)  # 給每張圖片命名
        save_path = path + '/' + image_name  # 圖片的保存地址
        with open(save_path, 'wb') as f:
            f.write(image_data)
            print(image_name, '=======================>下載成功!!!')
            num = num+1  # 下一張圖片名字序號加一
            f.close()
    
    print("
    掃描結果已寫入到result.txt文件中
    ")

    思考urllib.request和requests

    借鑒的代碼中使用urllib.request來請求,剛開始學習看到的一些代碼實例也常用urllib.request來發起請求,之后看到有的代碼使用的是requests。對于我個人,主觀感受requests更加便捷,少寫了幾行代碼,于是便去查閱了解兩者的區別。

    BeautifulSoup

    接觸到了BeautifulSoup,并且在一些文章的評論中看到對BeautifulSoup的稱贊,進入文檔查閱了下用法,改變了我之前對python,獲取文檔中部分特征的元素節點的寫法困難的印象。

    Beautiful Soup 4 文檔

    優化處理

    之所以要加正則匹配,因為一開始獲取到的圖片鏈接里有空字符串的現象,在下載圖片的時候直接報錯整個程序掛掉,而且這個借鑒代碼中的invalidLink1和invalidLink2看起來屬實不舒服。所以添加了正則從源頭保證鏈接的有效性,并且在執行下載代碼中,添加了try,except保證程序出錯也不會掛掉。

    關于“Python如何批量下載陰陽師網站壁紙”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識,可以關注億速云行業資訊頻道,小編每天都會為大家更新不同的知識點。

    向AI問一下細節

    免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

    AI

    甘德县| 库伦旗| 雅安市| 五河县| 冕宁县| 雷山县| 崇左市| 江陵县| 东阳市| 开江县| 乐昌市| 宁夏| 塔城市| 江山市| 青铜峡市| 龙泉市| 嘉禾县| 汕头市| 尉犁县| 湖州市| 通城县| 前郭尔| 怀仁县| 沈阳市| 长泰县| 尚志市| 嘉善县| 东至县| 龙井市| 石河子市| 防城港市| 尉氏县| 宁德市| 霸州市| 长治县| 太白县| 桂林市| 石楼县| 佛冈县| 高阳县| 炉霍县|