91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

scrapy在python爬蟲中使用時需要注意哪些問題

發布時間:2020-11-24 14:26:10 來源:億速云 閱讀:142 作者:Leah 欄目:開發技術

本篇文章為大家展示了scrapy在python爬蟲中使用時需要注意哪些問題,內容簡明扼要并且容易理解,絕對能使你眼前一亮,通過這篇文章的詳細介紹希望你能有所收獲。

1.如果需要大批量分布式爬取,建議采用Redis數據庫存儲,可安裝scrapy-redis,使用redis數據庫來替換scrapy原本使用的隊列結構(deque),并配合其它數據庫存儲,例如MySQL或者MongoDB,爬取效率將會極大提高。并且其自帶的dupefilter.py負責執行requst的去重,使用redis的set數據結構,通過settings文件正確設置后,即便停止scrapy爬蟲,當下次重新開始后也能自動去重。原因就是在redis已經存儲了request的信息。

2.當涉及到代理IP,Headers頭中間請求信息處理的時候,可以通過中間件Middleware來實現。Spider中間件是介入到Scrapy的spider處理機制的鉤子框架,可以添加代碼來處理發送給 Spiders的response及spider產生的item和request。

3.合理設置settings文件,需要熟練掌握settings的各種設置。

4.可以重新定義def start_requests(self)函數來加載cookie信息,form信息的提交用scrapy.FormRequest以及scrapy.FormRequest.from_response這兩個函數,scrapy.FormRequest.from_response能實現自動提交form數據。

5.采用Scrapy+phantomJS。 downloadMiddleware 對從 scheduler 送來的 Request 對象在請求之前進行預處理,可以實現添加 headers, user_agent,還有 cookie 等功能 。但也可以通過中間件直接返回 HtmlResponse 對象,略過請求的模塊,直接扔給 response 的回調函數處理。

class CustomMetaMiddleware(object):
  def process_request(self,request,spider):
    dcap = dict(DesiredCapabilities.PHANTOMJS)   
    dcap["phantomjs.page.settings.loadImages"] = False 
    dcap["phantomjs.page.settings.resourceTimeout"] = 10
    driver = webdriver.PhantomJS("D:xx\xx",desired_capabilities=dcap)
    driver.get(request.url)
    body = driver.page_source.encode('utf8')
    url = driver.current_url
    driver.quit()
    return HtmlResponse(request.url,body=body)

上述內容就是scrapy在python爬蟲中使用時需要注意哪些問題,你們學到知識或技能了嗎?如果還想學到更多技能或者豐富自己的知識儲備,歡迎關注億速云行業資訊頻道。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

栾川县| 蒲城县| 贺兰县| 张家界市| 金溪县| 安西县| 右玉县| 苏尼特左旗| 西乌珠穆沁旗| 南靖县| 新源县| 罗源县| 安平县| 铜鼓县| 紫阳县| 富锦市| 绥宁县| 巫溪县| 泽库县| 武邑县| 莱西市| 望都县| 遂川县| 瑞金市| 长沙县| 玉林市| 务川| 德昌县| 安康市| 九龙县| 开平市| 五大连池市| 洞头县| 永年县| 天镇县| 南江县| 方城县| 江都市| 马龙县| 吉木乃县| 汝阳县|