91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Python3網絡爬蟲實戰-11、爬蟲框架的安裝:ScrapySplash、ScrapyRedis

發布時間:2020-06-25 09:16:20 來源:網絡 閱讀:251 作者:學Python派森 欄目:編程語言

ScrapySplash的安裝

ScrapySplash 是一個 Scrapy 中支持 JavaScript 渲染的工具,本節來介紹一下它的安裝方式。
ScrapySplash 的安裝分為兩部分,一個是是 Splash 服務的安裝,安裝方式是通過 Docker,安裝之后會啟動一個 Splash 服務,我們可以通過它的接口來實現 JavaScript 頁面的加載。另外一個是 ScrapySplash 的 Python 庫的安裝,安裝之后即可在 Scrapy 中使用 Splash 服務。

1. 相關鏈接

  • GitHub:https://github.com/scrapy-plu...
  • PyPi:https://pypi.python.org/pypi/...
  • 使用說明:https://github.com/scrapy-plu...
  • Splash 官方文檔:http://splash.readthedocs.io

2. 安裝Splash

ScrapySplash 會使用 Splash 的 HTTP API 進行頁面渲染,所以我們需要安裝 Splash 來提供渲染服務,安裝是通過 Docker 安裝,在這之前請確保已經正確安裝好了 Docker。
安裝命令如下:

docker?run -p?8050:8050?scrapinghub/splash

安裝完成之后會有類似的輸出結果:

2017-07-03 08:53:28+0000 [-] Log opened.
2017-07-03 08:53:28.447291 [-] Splash version: 3.0
2017-07-03 08:53:28.452698 [-] Qt 5.9.1, PyQt 5.9, WebKit 602.1, sip 4.19.3, Twisted 16.1.1, Lua 5.2
2017-07-03 08:53:28.453120 [-] Python 3.5.2 (default, Nov 17 2016, 17:05:23) [GCC 5.4.0 20160609]
2017-07-03 08:53:28.453676 [-] Open files limit: 1048576
2017-07-03 08:53:28.454258 [-] Can't bump open files limit
2017-07-03 08:53:28.571306 [-] Xvfb is started: ['Xvfb', ':1599197258', '-screen', '0', '1024x768x24', '-nolisten', 'tcp']
QStandardPaths: XDG_RUNTIME_DIR not set, defaulting to '/tmp/runtime-root'
2017-07-03 08:53:29.041973 [-] proxy profiles support is enabled, proxy profiles path: /etc/splash/proxy-profiles
2017-07-03 08:53:29.315445 [-] verbosity=1
2017-07-03 08:53:29.315629 [-] slots=50
2017-07-03 08:53:29.315712 [-] argument_cache_max_entries=500
2017-07-03 08:53:29.316564 [-] Web UI: enabled, Lua: enabled (sandbox: enabled)
2017-07-03 08:53:29.317614 [-] Site starting on 8050
2017-07-03 08:53:29.317801 [-] Starting factory <twisted.web.server.Site object at 0x7ffaa4a98cf8>
Python資源分享qun 784758214 ,內有安裝包,PDF,學習視頻,這里是Python學習者的聚集地,零基礎,進階,都歡迎

這樣就證明 Splash 已經在 8050 端口上運行了。
這時我們打開:http://localhost:8050 即可看到 Splash 的主頁,如圖 1-81 所示:

Python3網絡爬蟲實戰-11、爬蟲框架的安裝:ScrapySplash、ScrapyRedis

圖 1-81 運行頁面
當然 Splash 也可以直接安裝在遠程服務器上,我們在服務器上運行以守護態運行 Splash 即可,命令如下:

docker?run -d -p?8050:8050?scrapinghub/splash

在這里多了一個 -d 參數,它代表將 Docker 容器以守護態運行,這樣在中斷遠程服務器連接后不會終止 Splash 服務的運行。

3. ScrapySplash的安裝

成功安裝了 Splash 之后,我們接下來再來安裝一下其 Python 庫,安裝命令如下:

pip3?install?scrapy-splash

命令運行完畢后就會成功安裝好此庫,后文我們會介紹它的詳細用法。

ScrapyRedis的安裝

ScrapyRedis 是 Scrapy 分布式的擴展模塊,有了它我們可以方便地實現 Scrapy 分布式爬蟲的搭建,本節來介紹一下 ScrapyRedis 的安裝方式。

1. 相關鏈接

  • GitHub:https://github.com/rmax/scrap...
  • PyPi:https://pypi.python.org/pypi/...
  • 官方文檔:http://scrapy-redis.readthedo...

2. Pip安裝

推薦使用 Pip 安裝,命令如下:

pip3?install?scrapy-redis

3. 測試安裝

安裝完成之后,可以在 Python 命令行下測試。

$ python3
>>> import scrapy_redis
Python資源分享qun 784758214 ,內有安裝包,PDF,學習視頻,這里是Python學習者的聚集地,零基礎,進階,都歡迎

如果沒有錯誤報出,則證明庫已經安裝好了。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

兴和县| 滦南县| 仲巴县| 万州区| 福泉市| 巴彦县| 筠连县| 甘孜县| 永丰县| 桃源县| 禄劝| 鄂尔多斯市| 理塘县| 长岭县| 靖州| 张家口市| 惠安县| 眉山市| 泾川县| 东乡族自治县| 汉源县| 屯昌县| 龙里县| 中卫市| 铜梁县| 西华县| 和林格尔县| 龙游县| 岳普湖县| 山阳县| 全州县| 滁州市| 巴里| 凌源市| 修文县| 阜阳市| 昌平区| 巨野县| 称多县| 朝阳县| 上栗县|