溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

Python3爬蟲(chóng)利器Scrapyd API如何安裝

發(fā)布時(shí)間:2020-08-05 13:56:07 來(lái)源:億速云 閱讀:209 作者:小新 欄目:編程語(yǔ)言

Python3爬蟲(chóng)利器Scrapyd API如何安裝?這個(gè)問(wèn)題可能是我們?nèi)粘W(xué)習(xí)或工作經(jīng)常見(jiàn)到的。希望通過(guò)這個(gè)問(wèn)題能讓你收獲頗深。下面是小編給大家?guī)?lái)的參考內(nèi)容,讓我們一起來(lái)看看吧!

安裝好了Scrapyd之后,我們可以直接請(qǐng)求它提供的API來(lái)獲取當(dāng)前主機(jī)的Scrapy任務(wù)運(yùn)行狀況。比如,某臺(tái)主機(jī)的IP為192.168.1.1,則可以直接運(yùn)行如下命令獲取當(dāng)前主機(jī)的所有Scrapy項(xiàng)目:

curl http://localhost:6800/listprojects.json

運(yùn)行結(jié)果如下:

{"status": "ok", "projects": ["myproject", "otherproject"]}

返回結(jié)果是JSON字符串,通過(guò)解析這個(gè)字符串,便可以得到當(dāng)前主機(jī)的所有項(xiàng)目。

但是用這種方式來(lái)獲取任務(wù)狀態(tài)還是有點(diǎn)煩瑣,所以Scrapyd API就為它做了一層封裝,下面我們來(lái)看下它的安裝方式。

1. 相關(guān)鏈接

GitHub:https://pypi.python.org/pypi/python-scrapyd-api/

PyPI:https://pypi.python.org/pypi/python-scrapyd-api

官方文檔:http://python-scrapyd-api.readthedocs.io/en/latest/usage.html

2. pip安裝

這里推薦使用pip安裝,命令如下:

pip install python-scrapyd-api

3. 驗(yàn)證安裝

安裝完成之后,便可以使用Python來(lái)獲取主機(jī)狀態(tài)了,所以上面的操作便可以用Python代碼實(shí)現(xiàn):

from scrapyd_api import ScrapydAPI
scrapyd = ScrapydAPI('http://localhost:6800')
print(scrapyd.list_projects())

運(yùn)行結(jié)果如下:

["myproject", "otherproject"]

這樣我們便可以用Python直接來(lái)獲取各個(gè)主機(jī)上Scrapy任務(wù)的運(yùn)行狀態(tài)了。

感謝各位的閱讀!看完上述內(nèi)容,你們對(duì)Python3爬蟲(chóng)利器Scrapyd API如何安裝大概了解了嗎?希望文章內(nèi)容對(duì)大家有所幫助。如果想了解更多相關(guān)文章內(nèi)容,歡迎關(guān)注億速云行業(yè)資訊頻道。

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI