您好,登錄后才能下訂單哦!
下文給大家?guī)?a title="負載均衡" target="_blank" href="http://kemok4.com/slb/">負載均衡調度器部署及實驗環(huán)境分享,希望能夠給大家在實際運用中帶來一定的幫助,負載均衡涉及的東西比較多,理論也不多,網(wǎng)上有很多書籍,今天我們就用億速云在行業(yè)內(nèi)累計的經(jīng)驗來做一個解答。
內(nèi)容要點:
1、實驗環(huán)境
2、負載均衡調度器部署
一、實驗環(huán)境:
基于之前部署好的多 Master 集群架構的基礎上,部署兩臺調度器云服務器(這邊我用的是 nginx),實現(xiàn)負載均衡:
kubernetes二進制集群部署一——etcd存儲組件、flannel網(wǎng)絡組件部署:
kubernetes二進制集群部署一——單master集群部署+多master群及部署:
服務器信息
角色 | IP地址 |
master01 | 192.168.109.138 |
master02 | 192.168.109.230 |
調度器1(nginx01) | 192.168.109.131 |
調度器1(nginx02) | 192.168.109.132 |
node01節(jié)點 | 192.168.109.133 |
node02節(jié)點 | 192.168.109.137 |
虛擬 ip | 192.168.109.100 |
需要兩個的腳本:
第一個:keepalived.conf ! Configuration File for keepalived global_defs { # 接收郵件地址 notification_email { acassen@firewall.loc failover@firewall.loc sysadmin@firewall.loc } # 郵件發(fā)送地址 notification_email_from Alexandre.Cassen@firewall.loc smtp_server 127.0.0.1 smtp_connect_timeout 30 router_id NGINX_MASTER } vrrp_script check_nginx { script "/usr/local/nginx/sbin/check_nginx.sh" } vrrp_instance VI_1 { state MASTER interface eth0 virtual_router_id 51 # VRRP 路由 ID實例,每個實例是唯一的 priority 100 # 優(yōu)先級,備服務器設置 90 advert_int 1 # 指定VRRP 心跳包通告間隔時間,默認1秒 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 10.0.0.188/24 } track_script { check_nginx } } mkdir /usr/local/nginx/sbin/ -p vim /usr/local/nginx/sbin/check_nginx.sh count=$(ps -ef |grep nginx |egrep -cv "grep|$$") if [ "$count" -eq 0 ];then /etc/init.d/keepalived stop fi chmod +x /usr/local/nginx/sbin/check_nginx.sh 第二個:nginx cat > /etc/yum.repos.d/nginx.repo << EOF [nginx] name=nginx repo baseurl=http://nginx.org/packages/centos/7/$basearch/ gpgcheck=0 EOF stream { log_format main '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent'; access_log /var/log/nginx/k8s-access.log main; upstream k8s-apiserver { server 10.0.0.3:6443; server 10.0.0.8:6443; } server { listen 6443; proxy_pass k8s-apiserver; } }
二、負載均衡調度器部署
//首先關閉防火墻: [root@localhost ~]# systemctl stop firewalld.service [root@localhost ~]# setenforce 0 //將這個腳本文件放進家目錄中: [root@localhost ~]# ls anaconda-ks.cfg initial-setup-ks.cfg keepalived.conf nginx.sh 公共 模板 視頻 圖片 文檔 下載 音樂 桌面 //建立本地yum倉庫: [root@localhost ~]# vim /etc/yum.repos.d/nginx.repo [nginx] name=nginx repo baseurl=http://nginx.org/packages/centos/7/$basearch/ gpgcheck=0 [root@localhost ~]# yum list [root@localhost ~]# yum install nginx -y //下載nginx //接下來是添加四層轉發(fā): [root@localhost ~]# vim /etc/nginx/nginx.conf 添加以下模塊: stream { log_format main '$remote_addr $upstream_addr - [$time_local] $status $upstream_bytes_sent'; access_log /var/log/nginx/k8s-access.log main; upstream k8s-apiserver { server 192.168.109.138:6443; //master01的IP地址 server 192.168.109.230:6443; //master02的IP地址 } server { listen 6443; proxy_pass k8s-apiserver; } } [root@localhost ~]# systemctl start nginx //開啟服務 //接下來是部署 keepalived服務: [root@localhost ~]# yum install keepalived -y //修改配置文件(nginx01是master): [root@localhost ~]# cp keepalived.conf /etc/keepalived/keepalived.conf cp:是否覆蓋"/etc/keepalived/keepalived.conf"? yes [root@localhost ~]# vim /etc/keepalived/keepalived.conf //做如下刪改: ! Configuration File for keepalived global_defs { # 接收郵件地址 notification_email { acassen@firewall.loc failover@firewall.loc sysadmin@firewall.loc } # 郵件發(fā)送地址 notification_email_from Alexandre.Cassen@firewall.loc smtp_server 127.0.0.1 smtp_connect_timeout 30 router_id NGINX_MASTER } vrrp_script check_nginx { script "/etc/nginx/check_nginx.sh" ##檢測腳本的路徑,稍后會創(chuàng)建 } vrrp_instance VI_1 { state MASTER interface ens33 virtual_router_id 51 priority 100 ##優(yōu)先級 advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.109.100/24 ##虛擬IP地址 } track_script { check_nginx } } //nginx02(是backup),配置如下: ! Configuration File for keepalived global_defs { # 接收郵件地址 notification_email { acassen@firewall.loc failover@firewall.loc sysadmin@firewall.loc } # 郵件發(fā)送地址 notification_email_from Alexandre.Cassen@firewall.loc smtp_server 127.0.0.1 smtp_connect_timeout 30 router_id NGINX_MASTER } vrrp_script check_nginx { script "/etc/nginx/check_nginx.sh" ##檢測腳本的路徑,稍后會創(chuàng)建 } vrrp_instance VI_1 { state BACKUP interface ens33 virtual_router_id 51 priority 90 ##優(yōu)先級低于master advert_int 1 authentication { auth_type PASS auth_pass 1111 } virtual_ipaddress { 192.168.109.100/24 ##虛擬IP地址 } track_script { check_nginx } } //創(chuàng)建檢測腳本 [root@localhost ~]# vim /etc/nginx/check_nginx.sh count=$(ps -ef |grep nginx |egrep -cv "grep|$$") if [ "$count" -eq 0 ];then systemctl stop keepalived fi [root@localhost ~]# chmod +x /etc/nginx/check_nginx.sh //授權 [root@localhost ~]# systemctl start keepalived.service //開啟服務 [root@localhost ~]# ip a //查看ip地址
2、實驗結果驗證
驗證一:漂移地址是否起作用(高可用是否實現(xiàn))
1、此時 虛擬ip在 nginx01 上,驗證地址漂移,可以在 lb01 中使用 pkill nginx 停止nginx服務,再在 lb02 上使用 ip a 命令查看地址是否進行了漂移。
2、恢復,此時,在 nginx02上,我們先啟動 nginx服務,再啟動 keepalived服務,再用 ip a命令查看,地址又漂移回來了,而 nginx02上沒有虛擬ip。
驗證二:驗證負載均衡是否實現(xiàn)<此時VIP在bl2上>
1、修改nginx01(master)的首頁內(nèi)容:
[root@localhost ~]# vim /usr/share/nginx/html/index.html <h3>Welcome to master nginx!</h3>
2、修改nginx02(backup)的首頁內(nèi)容:
[root@localhost ~]# vim /usr/share/nginx/html/index.html <h3>Welcome to backup nginx!</h3>
3、用瀏覽器訪問:http://192.168.109.100/
此時,負載均衡和高可用功能都已經(jīng)完全實現(xiàn)了?。?!
3、部署 node節(jié)點:
//開始修改 node節(jié)點配置文件統(tǒng)一的 VIP(bootstrap.kubeconfig,kubelet.kubeconfig) 修改內(nèi)容:server: https://192.168.109.100:6443(都改成vip) [root@localhost cfg]# vim /opt/kubernetes/cfg/bootstrap.kubeconfig [root@localhost cfg]# vim /opt/kubernetes/cfg/kubelet.kubeconfig [root@localhost cfg]# vim /opt/kubernetes/cfg/kube-proxy.kubeconfig //重啟服務: [root@localhost cfg]# systemctl restart kubelet.service [root@localhost cfg]# systemctl restart kube-proxy.service //檢查修改內(nèi)容: [root@localhost cfg]# grep 100 * bootstrap.kubeconfig: server: https://192.168.109.100:6443 kubelet.kubeconfig: server: https://192.168.109.100:6443 kube-proxy.kubeconfig: server: https://192.109.220.100:6443 //接下來在 調度器1 上查看 nginx的k8s日志: [root@localhost ~]# tail /var/log/nginx/k8s-access.log 192.168.109.131 192.168.109.138:6443 - [09/Feb/2020:13:14:45 +0800] 200 1122 192.168.109.131 192.168.109.230:6443 - [09/Feb/2020:13:14:45 +0800] 200 1121 192.168.109.132 192.168.109.138:6443 - [09/Feb/2020:13:18:14 +0800] 200 1120 192.168.109.132 192.168.109.230:6443 - [09/Feb/2020:13:18:14 +0800] 200 1121 可以看出是以輪詢調度的算法,將請求流量分發(fā)給兩臺master ———— 接下來是測試創(chuàng)建 Pod: 在 master01 上操作: [root@localhost kubeconfig]# kubectl run nginx --image=nginx //查看狀態(tài): [root@localhost kubeconfig]# kubectl get pods NAME READY STATUS RESTARTS AGE nginx-dbddb74b8-zbhhr 1/1 Running 0 47s 此時已經(jīng)創(chuàng)建完成,正在運行中 *** 注意日志問題 ***: [root@localhost kubeconfig]# kubectl logs nginx-dbddb74b8-zbhhr Error from server (Forbidden): Forbidden (user=system:anonymous, verb=get, resource=nodes, subresource=proxy) ( pods/log nginx-dbddb74b8-zbhhr) 此時,由于權限問題查看日志,會出現(xiàn)報錯 解決辦法(提升權限): [root@localhost kubeconfig]# kubectl create clusterrolebinding cluster-system-anonymous --clusterrole=cluster-admin --user=system:anonymous clusterrolebinding.rbac.authorization.k8s.io/cluster-system-anonymous created 此時,再次查看日志,就不會出現(xiàn)報錯: //查看 Pod網(wǎng)絡: [root@localhost kubeconfig]# kubectl get pods -o wide NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE nginx-dbddb74b8-zbhhr 1/1 Running 0 7m11s 172.17.93.2 192.168.109.131 <none> 可以看出,這個在master01上創(chuàng)建的pod被分配到了node01上了。 我們可以在對應網(wǎng)絡的 node節(jié)點上操作就可以直接訪問: 在node01上操作: [root@localhost cfg]# curl 172.17.93.2
此時,由于 flannel網(wǎng)絡組件的作用下,都可以在node01和node02的瀏覽器上訪問這個地址:172.17.93.2
由于剛剛訪問了網(wǎng)頁,我們也可以在 master01上查看到日志信息:
看了以上關于負載均衡調度器部署及實驗環(huán)境分享,如果大家還有什么地方需要了解的可以在億速云行業(yè)資訊里查找自己感興趣的或者找我們的專業(yè)技術工程師解答的,億速云技術工程師在行業(yè)內(nèi)擁有十幾年的經(jīng)驗了。
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權內(nèi)容。