您好,登錄后才能下訂單哦!
這篇文章將為大家詳細(xì)講解有關(guān)Python3爬蟲利器中Scrapy-Redis的安裝方法是什么,小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。
Scrapy-Redis是Scrapy的分布式擴(kuò)展模塊,有了它,我們就可以方便地實(shí)現(xiàn)Scrapy分布式爬蟲的搭建。本節(jié)中,我們將介紹Scrapy-Redis的安裝方式。
相關(guān)鏈接
GitHub:https://github.com/rmax/scrapy-redis
PyPI:https://pypi.python.org/pypi/scrapy-redis
官方文檔:http://scrapy-redis.readthedocs.io
pip安裝
這里推薦使用pip安裝,命令如下:
pip3 install scrapy-redis
wheel安裝
此外,也可以到PyPI下載wheel文件安裝(詳見https://pypi.python.org/pypi/scrapy-redis#downloads),如當(dāng)前的最新版本為0.6.8,則可以下載scrapy_redis-0.6.8-py2.py3-none-any.whl,然后通過pip安裝即可:
pip3 install scrapy_redis-0.6.8-py2.py3-none-any.whl
測(cè)試安裝
安裝完成之后,可以在Python命令行下測(cè)試:
$ python3 >>> import scrapy_redis
如果沒有錯(cuò)誤報(bào)出,則證明庫已經(jīng)安裝好了。
關(guān)于Python3爬蟲利器中Scrapy-Redis的安裝方法是什么就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,可以學(xué)到更多知識(shí)。如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。