溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

怎么使用Docker Swarm搭建分布式爬蟲集群

發(fā)布時間:2021-02-18 13:52:40 來源:億速云 閱讀:215 作者:小新 欄目:服務(wù)器

這篇文章主要介紹了怎么使用Docker Swarm搭建分布式爬蟲集群,具有一定借鑒價值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

在爬蟲開發(fā)過程中,你肯定遇到過需要把爬蟲部署在多個服務(wù)器上面的情況。此時你是怎么操作的呢?逐一SSH登錄每個服務(wù)器,使用git拉下代碼,然后運(yùn)行?代碼修改了,于是又要一個服務(wù)器一個服務(wù)器登錄上去依次更新?

有時候爬蟲只需要在一個服務(wù)器上面運(yùn)行,有時候需要在200個服務(wù)器上面運(yùn)行。你是怎么快速切換的呢?一個服務(wù)器一個服務(wù)器登錄上去開關(guān)?或者聰明一點,在Redis里面設(shè)置一個可以修改的標(biāo)記,只有標(biāo)記對應(yīng)的服務(wù)器上面的爬蟲運(yùn)行?

A爬蟲已經(jīng)在所有服務(wù)器上面部署了,現(xiàn)在又做了一個B爬蟲,你是不是又得依次登錄每個服務(wù)器再一次部署?

如果你確實是這么做的,那么你應(yīng)該后悔沒有早一點看到這篇文章??赐瓯疚囊院?,你能夠做到:

2分鐘內(nèi)把一個新爬蟲部署到50臺服務(wù)器上:

docker build -t localhost:8003/spider:0.01 .
docker push localhost:8002/spider:0.01
docker service create --name spider --replicas 50 --network host 45.77.138.242:8003/spider:0.01

30秒內(nèi)把爬蟲從50臺服務(wù)器擴(kuò)展到500臺服務(wù)器:

docker service scale spider=500

30秒內(nèi)批量關(guān)閉所有服務(wù)器上的爬蟲:

docker service scale spider=0

1分鐘內(nèi)批量更新所有機(jī)器上的爬蟲:

docker build -t localhost:8003/spider:0.02 .
docker push localhost:8003/spider:0.02
docker service update --image 45.77.138.242:8003/spider:0.02 spider

這篇文章不會教你怎么使用Docker,所以請確定你有一些Docker基礎(chǔ)再來看本文。

Docker Swarm是什么

Docker Swarm是Docker自帶的一個集群管理模塊。他能夠?qū)崿F(xiàn)Docker集群的創(chuàng)建和管理。

環(huán)境搭建

本文將會使用3臺Ubuntu 18.04的服務(wù)器來進(jìn)行演示。這三臺服務(wù)器安排如下:

Master:45.77.138.242

Slave-1:199.247.30.74

Slave-2:95.179.143.21

Docker Swarm是基于Docker的模塊,所以首先要在3臺服務(wù)器上安裝Docker。安裝完成Docker以后,所有的操作都在Docker中完成。

在Master上安裝Docker

通過依次執(zhí)行下面的命令,在Master服務(wù)器上安裝Docker

apt-get update
apt-get install -y apt-transport-https ca-certificates curl software-properties-common
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu bionic stable"
apt-get update
apt-get install -y docker-ce

創(chuàng)建Manager節(jié)點

一個Docker Swarm集群需要Manager節(jié)點?,F(xiàn)在初始化Master服務(wù)器,作為集群的Manager節(jié)點。運(yùn)行下面一條命令。

docker swarm init

運(yùn)行完成以后,可以看到的返回結(jié)果下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

這個返回結(jié)果中,給出了一條命令:

復(fù)制代碼 代碼如下:

docker swarm join --token SWMTKN-1-0hqsajb64iynkg8ocp8uruktii5esuo4qiaxmqw2pddnkls9av-dfj7nf1x3vr5qcj4cqiusu4pv 45.77.138.242:2377

這條命令需要在每一個從節(jié)點(Slave)中執(zhí)行?,F(xiàn)在先把這個命令記錄下來。

初始化完成以后,得到一個只有1臺服務(wù)器的Docker 集群。執(zhí)行如下命令:

docker node ls

可以看到當(dāng)前這個集群的狀態(tài),如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

創(chuàng)建私有源(可選)

創(chuàng)建私有源并不是一個必需的操作。之所以需要私有源,是因為項目的Docker鏡像可能會涉及到公司機(jī)密,不能上傳到DockerHub這種公共平臺。如果你的鏡像可以公開上傳DockerHub,或者你已經(jīng)有一個可以用的私有鏡像源,那么你可以直接使用它們,跳過本小節(jié)和下一小節(jié)。

私有源本身也是一個Docker的鏡像,先將拉取下來:

docker pull registry:latest

如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

現(xiàn)在啟動私有源:

復(fù)制代碼 代碼如下:

docker run -d -p 8003:5000 --name registry -v /tmp/registry:/tmp/registry docker.io/registry:latest

如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

在啟動命令中,設(shè)置了對外開放的端口為8003端口,所以私有源的地址為:45.77.138.242:8003

提示:

這樣搭建的私有源是HTTP方式,并且沒有權(quán)限驗證機(jī)制,所以如果對公網(wǎng)開放,你需要再使用防火墻做一下IP白名單,從而保證數(shù)據(jù)的安全。

允許docker使用可信任的http私有源(可選)

如果你使用上面一個小節(jié)的命令搭建了自己的私有源,由于Docker默認(rèn)是不允許使用HTTP方式的私有源的,因此你需要配置Docker,讓Docker信任它。

使用下面命令配置Docker:

echo '{ "insecure-registries":["45.77.138.242:8003"] }' >> /etc/docker/daemon.json

然后使用下面這個命令重啟docker。

systemctl restart docker

如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

重啟完成以后,Manager節(jié)點就配置好了。

創(chuàng)建子節(jié)點初始化腳本

對于Slave服務(wù)器來說,只需要做三件事情:

  • 安裝Docker

  • 加入集群

  • 信任源

從此以后,剩下的事情全部交給Docker Swarm自己管理,你再也不用SSH登錄這個服務(wù)器了。

為了簡化操作,可以寫一個shell腳本來批量運(yùn)行。在Slave-1和Slave-2服務(wù)器下創(chuàng)建一個 init.sh 文件,其內(nèi)容如下。

apt-get update
apt-get install -y apt-transport-https ca-certificates curl software-properties-common
curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo apt-key add -
add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/ubuntu bionic stable"
apt-get update
apt-get install -y docker-ce
echo '{ "insecure-registries":["45.77.138.242:8003"] }' >> /etc/docker/daemon.json
systemctl restart docker 
docker swarm join --token SWMTKN-1-0hqsajb64iynkg8ocp8uruktii5esuo4qiaxmqw2pddnkls9av-dfj7nf1x3vr5qcj4cqiusu4pv 45.77.138.242:2377

把這個文件設(shè)置為可自行文件,并運(yùn)行:

chmod +x init.sh
./init.sh

如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

等待腳本運(yùn)行完成以后,你就可以從Slave-1和Slave-2的SSH上面登出了。以后也不需要再進(jìn)來了。

回到Master服務(wù)器,執(zhí)行下面的命令,來確認(rèn)現(xiàn)在集群已經(jīng)有3個節(jié)點了:

docker node ls

看到現(xiàn)在集群中已經(jīng)有3個節(jié)點了。如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

到止為止,最復(fù)雜最麻煩的過程已經(jīng)結(jié)束了。剩下的就是體驗Docker Swarm帶來的便利了。

創(chuàng)建測試程序

搭建測試Redis

由于這里需要模擬一個分布式爬蟲的運(yùn)行效果,所以先使用Docker搭建一個臨時的Redis服務(wù):

在Master服務(wù)器上執(zhí)行以下命令:

復(fù)制代碼 代碼如下:

docker run -d --name redis -p 7891:6379 redis --requirepass "KingnameISHandSome8877"

這個Redis對外使用 7891 端口,密碼為 KingnameISHandSome8877 ,IP就是Master服務(wù)器的IP地址。

編寫測試程序

編寫一個簡單的Python程序:

import time
import redis


client = redis.Redis(host='45.77.138.242', port='7891', password='KingnameISHandSome8877')

while True:
  data = client.lpop('example:swarm:spider')
  if not data:
    break
  print(f'我現(xiàn)在獲取的數(shù)據(jù)為:{data.decode()}')
  time.sleep(10)

這個Python每10秒鐘從Redis中讀取一個數(shù),并打印出來。

編寫Dockerfile

編寫Dockerfile,基于Python3.6的鏡像創(chuàng)建我們自己的鏡像:

from python:3.6
label mantainer='[email protected]'

user root
ENV PYTHONUNBUFFERED=0
ENV PYTHONIOENCODING=utf-8

run python3 -m pip install redis

copy spider.py spider.py
cmd python3 spider.py

構(gòu)建鏡像

編寫完成Dockerfile以后,執(zhí)行下面的命令,開始構(gòu)建我們自己的鏡像:

docker build -t localhost:8003/spider:0.01 .

這里需要特別注意,由于我們要把這個鏡像上傳到私有源供Slave服務(wù)器上面的從節(jié)點下載,所以鏡像的命名方式需要滿足 localhost:8003/自定義名字:版本號 這樣的格式。其中的 自定義名字版本號 可以根據(jù)實際情況進(jìn)行修改。在本文的例子中,我由于要模擬一個爬蟲的程序,所以給它取名為spider,由于是第1次構(gòu)建,所以版本號用的是0.01。

整個過程如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

上傳鏡像到私有源

鏡像構(gòu)建完成以后,需要把它上傳到私有源。此時需要執(zhí)行命令:

docker push localhost:8003/spider:0.01

如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

大家記住這個構(gòu)建和上傳的命令,以后每一次更新代碼,都需要使用這兩條命令。

創(chuàng)建服務(wù)

Docker Swarm上面運(yùn)行的是一個一個的服務(wù),因此需要使用docker service命令創(chuàng)建服務(wù)。

復(fù)制代碼 代碼如下:

docker service create --name spider --network host 45.77.138.242:8003/spider:0.01

這個命令創(chuàng)建了一個名為 spider 的服務(wù)。默認(rèn)運(yùn)行1個容器。運(yùn)行情況如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

當(dāng)然也可以一創(chuàng)建就用很多容器來運(yùn)行,此時只需要添加一個 --replicas 參數(shù)即可。例如一創(chuàng)建服務(wù)就使用50個容器運(yùn)行:

復(fù)制代碼 代碼如下:

docker service create --name spider --replicas 50 --network host 45.77.138.242:8003/spider:0.01

但是一般一開始的代碼可能會有不少bug,所以建議先使用1個容器來運(yùn)行,觀察日志,發(fā)現(xiàn)沒有問題以后再進(jìn)行擴(kuò)展。

回到默認(rèn)1個容器的情況下,這個容器可能在目前三臺機(jī)器在的任何一臺上面。通過執(zhí)行下面的命令來觀察這一個默認(rèn)的容器運(yùn)行情況:

docker service ps spider

如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

查看節(jié)點Log

根據(jù)上圖執(zhí)行結(jié)果,可以看到這個運(yùn)行中的容器的ID為 rusps0ofwids ,那么執(zhí)行下面的命令動態(tài)查看Log:

docker service logs -f 容器ID

此時就會持續(xù)跟蹤這一個容器的Log。如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

橫向擴(kuò)展

現(xiàn)在,只有1臺服務(wù)器運(yùn)行了一個容器,我想使用3臺服務(wù)器運(yùn)行這個爬蟲,那么我需要執(zhí)行一條命令即可:

docker service scale spider=3

運(yùn)行效果如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

此時,再一次查看爬蟲的運(yùn)行情況,可以發(fā)現(xiàn)三臺機(jī)器上面會各自運(yùn)行一個容器。如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

現(xiàn)在,我們登錄slave-1機(jī)器上,看看是不是真的有一個任務(wù)在運(yùn)行。如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

可以看到確實有一個容器在上面運(yùn)行著。這是Docker Swarm自動分配過來的。

現(xiàn)在我們使用下面的命令強(qiáng)行把slave-1上面的Docker給關(guān)了,再來看看效果。

systemctl stop docker

回到master服務(wù)器,再次查看爬蟲的運(yùn)行效果,如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

可以看到,Docker Swarm探測到Slave-1掉線以后,他就會自動重新找個機(jī)器啟動任務(wù),保證始終有3個任務(wù)在運(yùn)行。在這一次的例子中,Docker Swarm自動在master機(jī)器上啟動了2個spider容器。

如果機(jī)器性能比較好,甚至可以在3每臺機(jī)器上面多運(yùn)行幾個容器:

docker service scale spider=10

此時,就會啟動10個容器來運(yùn)行這些爬蟲。這10個爬蟲之間互相隔離。

如果想讓所有爬蟲全部停止怎么辦?非常簡單,一條命令:

docker service scale spider=0

這樣所有爬蟲就會全部停止。

同時查看多個容器的日志

如果想同時看所有容器怎么辦呢?可以使用如下命令查看所有容器的最新的20行日志:

docker service ps robot | grep Running | awk '{print $1}' | xargs -i docker service logs --tail 20 {}

這樣,日志就會按順序顯示出來了。如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

更新爬蟲

如果你的代碼做了修改。那么你需要更新爬蟲。

先修改代碼,重新構(gòu)建,重新提交新的鏡像到私有源中。如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

接下來需要更新服務(wù)中的鏡像。更新鏡像有兩種做法。一種是先把所有爬蟲關(guān)閉,再更新。

docker service scale spider=0
docker service update --image 45.77.138.242:8003/spider:0.02 spider
docker service scale spider=3

第二種是直接執(zhí)行更新命令。

docker service update --image 45.77.138.242:8003/spider:0.02 spider

他們的區(qū)別在于,直接執(zhí)行更新命令時,正在運(yùn)行的容器會一個一個更新。

運(yùn)行效果如下圖所示。

怎么使用Docker Swarm搭建分布式爬蟲集群

你可以用Docker Swarm做更多事情

本文使用的是一個模擬爬蟲的例子,但是顯然,任何可以批量運(yùn)行的程序都能夠用Docker Swarm來運(yùn)行,無論你用Redis還是Celery來通信,無論你是否需要通信,只要能批量運(yùn)行,就能用Docker Swarm。

在同一個Swarm集群里面,可以運(yùn)行多個不同的服務(wù),各個服務(wù)之間互不影響。真正做到了搭建一次Docker Swarm集群,然后就再也不用管了,以后的所有操作你都只需要在Manager節(jié)點所在的這個服務(wù)器上面運(yùn)行。

感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“怎么使用Docker Swarm搭建分布式爬蟲集群”這篇文章對大家有幫助,同時也希望大家多多支持億速云,關(guān)注億速云行業(yè)資訊頻道,更多相關(guān)知識等著你來學(xué)習(xí)!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI