溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

怎么用Docker部署Scrapy

發(fā)布時(shí)間:2022-05-20 15:13:49 來(lái)源:億速云 閱讀:261 作者:iii 欄目:大數(shù)據(jù)

本篇內(nèi)容主要講解“怎么用Docker部署Scrapy”,感興趣的朋友不妨來(lái)看看。本文介紹的方法操作簡(jiǎn)單快捷,實(shí)用性強(qiáng)。下面就讓小編來(lái)帶大家學(xué)習(xí)“怎么用Docker部署Scrapy”吧!

1. 部署步驟

1.1 上傳本地scrapy爬蟲代碼除了settings外到git 服務(wù)器

1.2 編寫dockerfile文件,把settings和requirements.txt 也拷貝到image里,一起打包成一個(gè)image

dockerfile內(nèi)容:

from ubuntu
run apt-get update
run apt-get install -y git
run apt-get install -y nano 
run apt-get install -y redis-server  
run apt-get -y dist-upgrade
run apt-get install -y openssh-server
run apt-get install -y python3.5 python3-pip
run apt-get install -y zlib1g-dev libffi-dev libssl-dev
run apt-get install -y libxml2-dev libxslt1-dev
run mkdir /code
workdir /code
add ./requirements.txt /code/
add ./settings.py /code/
run mkdir /code/myspider
run pip3 install -r requirements.txt
volume [ "/data" ]

requirements.txt 內(nèi)容:

beautifulsoup4
scrapy
setuptools
scrapy_redis
redis
sqlalchemy
pymysql
pillow

整個(gè)目錄結(jié)構(gòu):

怎么用Docker部署Scrapy

docker build -t fox6419/scrapy:scrapytag .

fox6419是用戶名,scrapytag是tag

成功后,執(zhí)行docker images可以在本地看到image

1.3 打包的image 上傳到docker hub中

docker push username/repository:tag

push的命令格式是這樣的,我這邊就是:

docker push fox6419/scrapy:scrapytag

1.4 在digitalocean這種主機(jī)商創(chuàng)建帶docker應(yīng)用的ubuntu 16.04版本

1.5 登陸docker,拉下1.3的image,然后run起來(lái)

docker run -it fox6419/scrapy:scrapytag /bin/bash

1.6 命令進(jìn)去后,git clone 1.1中的爬蟲,然后復(fù)制images里的settings到爬蟲目錄,然后執(zhí)行scrapy crawl xxx即可

到此,相信大家對(duì)“怎么用Docker部署Scrapy”有了更深的了解,不妨來(lái)實(shí)際操作一番吧!這里是億速云網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI