溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

Python3網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)-11、爬蟲框架的安裝:ScrapySplash、ScrapyRedis

發(fā)布時(shí)間:2020-06-25 09:16:20 來源:網(wǎng)絡(luò) 閱讀:251 作者:學(xué)Python派森 欄目:編程語言

ScrapySplash的安裝

ScrapySplash 是一個(gè) Scrapy 中支持 JavaScript 渲染的工具,本節(jié)來介紹一下它的安裝方式。
ScrapySplash 的安裝分為兩部分,一個(gè)是是 Splash 服務(wù)的安裝,安裝方式是通過 Docker,安裝之后會(huì)啟動(dòng)一個(gè) Splash 服務(wù),我們可以通過它的接口來實(shí)現(xiàn) JavaScript 頁面的加載。另外一個(gè)是 ScrapySplash 的 Python 庫的安裝,安裝之后即可在 Scrapy 中使用 Splash 服務(wù)。

1. 相關(guān)鏈接

  • GitHub:https://github.com/scrapy-plu...
  • PyPi:https://pypi.python.org/pypi/...
  • 使用說明:https://github.com/scrapy-plu...
  • Splash 官方文檔:http://splash.readthedocs.io

2. 安裝Splash

ScrapySplash 會(huì)使用 Splash 的 HTTP API 進(jìn)行頁面渲染,所以我們需要安裝 Splash 來提供渲染服務(wù),安裝是通過 Docker 安裝,在這之前請(qǐng)確保已經(jīng)正確安裝好了 Docker。
安裝命令如下:

docker?run -p?8050:8050?scrapinghub/splash

安裝完成之后會(huì)有類似的輸出結(jié)果:

2017-07-03 08:53:28+0000 [-] Log opened.
2017-07-03 08:53:28.447291 [-] Splash version: 3.0
2017-07-03 08:53:28.452698 [-] Qt 5.9.1, PyQt 5.9, WebKit 602.1, sip 4.19.3, Twisted 16.1.1, Lua 5.2
2017-07-03 08:53:28.453120 [-] Python 3.5.2 (default, Nov 17 2016, 17:05:23) [GCC 5.4.0 20160609]
2017-07-03 08:53:28.453676 [-] Open files limit: 1048576
2017-07-03 08:53:28.454258 [-] Can't bump open files limit
2017-07-03 08:53:28.571306 [-] Xvfb is started: ['Xvfb', ':1599197258', '-screen', '0', '1024x768x24', '-nolisten', 'tcp']
QStandardPaths: XDG_RUNTIME_DIR not set, defaulting to '/tmp/runtime-root'
2017-07-03 08:53:29.041973 [-] proxy profiles support is enabled, proxy profiles path: /etc/splash/proxy-profiles
2017-07-03 08:53:29.315445 [-] verbosity=1
2017-07-03 08:53:29.315629 [-] slots=50
2017-07-03 08:53:29.315712 [-] argument_cache_max_entries=500
2017-07-03 08:53:29.316564 [-] Web UI: enabled, Lua: enabled (sandbox: enabled)
2017-07-03 08:53:29.317614 [-] Site starting on 8050
2017-07-03 08:53:29.317801 [-] Starting factory <twisted.web.server.Site object at 0x7ffaa4a98cf8>
Python資源分享qun 784758214 ,內(nèi)有安裝包,PDF,學(xué)習(xí)視頻,這里是Python學(xué)習(xí)者的聚集地,零基礎(chǔ),進(jìn)階,都?xì)g迎

這樣就證明 Splash 已經(jīng)在 8050 端口上運(yùn)行了。
這時(shí)我們打開:http://localhost:8050 即可看到 Splash 的主頁,如圖 1-81 所示:

Python3網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)-11、爬蟲框架的安裝:ScrapySplash、ScrapyRedis

圖 1-81 運(yùn)行頁面
當(dāng)然 Splash 也可以直接安裝在遠(yuǎn)程服務(wù)器上,我們?cè)诜?wù)器上運(yùn)行以守護(hù)態(tài)運(yùn)行 Splash 即可,命令如下:

docker?run -d -p?8050:8050?scrapinghub/splash

在這里多了一個(gè) -d 參數(shù),它代表將 Docker 容器以守護(hù)態(tài)運(yùn)行,這樣在中斷遠(yuǎn)程服務(wù)器連接后不會(huì)終止 Splash 服務(wù)的運(yùn)行。

3. ScrapySplash的安裝

成功安裝了 Splash 之后,我們接下來再來安裝一下其 Python 庫,安裝命令如下:

pip3?install?scrapy-splash

命令運(yùn)行完畢后就會(huì)成功安裝好此庫,后文我們會(huì)介紹它的詳細(xì)用法。

ScrapyRedis的安裝

ScrapyRedis 是 Scrapy 分布式的擴(kuò)展模塊,有了它我們可以方便地實(shí)現(xiàn) Scrapy 分布式爬蟲的搭建,本節(jié)來介紹一下 ScrapyRedis 的安裝方式。

1. 相關(guān)鏈接

  • GitHub:https://github.com/rmax/scrap...
  • PyPi:https://pypi.python.org/pypi/...
  • 官方文檔:http://scrapy-redis.readthedo...

2. Pip安裝

推薦使用 Pip 安裝,命令如下:

pip3?install?scrapy-redis

3. 測(cè)試安裝

安裝完成之后,可以在 Python 命令行下測(cè)試。

$ python3
>>> import scrapy_redis
Python資源分享qun 784758214 ,內(nèi)有安裝包,PDF,學(xué)習(xí)視頻,這里是Python學(xué)習(xí)者的聚集地,零基礎(chǔ),進(jìn)階,都?xì)g迎

如果沒有錯(cuò)誤報(bào)出,則證明庫已經(jīng)安裝好了。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI