91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

python爬蟲時提取數據后跟蹤到下一個鏈接報錯怎么辦

發布時間:2021-08-09 13:48:08 來源:億速云 閱讀:195 作者:小新 欄目:編程語言

小編給大家分享一下python爬蟲時提取數據后跟蹤到下一個鏈接報錯怎么辦,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

解決方法:不要將“NoneType”連接到 str。這意味著該next_page變量沒有從response.xpath().get()上一行函數中提到的 xpath 中獲取任何值。沒有匹配的 xpath,因此get()返回None。

示例:

正在嘗試制作一個爬蟲,它可以從 SCP wiki 中獲取信息并跟蹤下一個 SCP 的鏈接并繼續像這樣。使用當前的代碼,從第一個跟蹤鏈接中提取數據后,爬蟲停止跟蹤到下一個鏈接。

import scrapyclass QuotesSpider(scrapy.Spider):
    name = "scp"
    start_urls = [
        'https://scp-wiki.wikidot.com/scp-002',
    ]
    def parse(self, response):        for scp in response.xpath('//*[@id="main-content"]'):            yield {                'title': scp.xpath('//*[@id="page-content"]/p[1]').get(),                'tags': scp.xpath('//*[@id="main-content"]/div[4]').get(),                'class': scp.xpath('//*[@id="page-content"]/p[2]').get(),                'scp': scp.xpath('//*[@id="page-content"]/p[3]').get(),                'desc': scp.xpath('//*[@id="page-content"]/p[6]').get(),
            }
        next_page = response.xpath('//*[@id="page-content"]/div[3]/div/p/a[2]/@href').get()
        next_page = 'https://scp-wiki.wikidot.com'+next_page        print(next_page)
        next_page = response.urljoin(next_page)
        print(next_page)        yield response.follow(next_page, callback=self.parse)

當我運行這個代碼時,收到了以下錯誤:

next_page = ' 
TypeError: can only concatenate str (not "NoneType") to str

當出現以上錯誤時,可以使用本文開頭提到的解決方法進行處理。

以上是“python爬蟲時提取數據后跟蹤到下一個鏈接報錯怎么辦”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

广德县| 大英县| 北安市| 平乡县| 大同市| 林口县| 新巴尔虎左旗| 青田县| 昌邑市| 浦北县| 泰安市| 北京市| 罗江县| 阿鲁科尔沁旗| 正镶白旗| 常宁市| 温宿县| 土默特右旗| 革吉县| 新巴尔虎右旗| 庆城县| 平定县| 古田县| 平远县| 吴堡县| 乌拉特后旗| 浮梁县| 贵州省| 镇雄县| 石渠县| 隆子县| 井研县| 沙坪坝区| 象州县| 弋阳县| 泗洪县| 鸡东县| 宁海县| 洛浦县| 绵竹市| 肥乡县|