您好,登錄后才能下訂單哦!
這篇文章主要介紹如何利用ELK搭建Docker容器化應用日志中心,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!
概述
應用一旦容器化以后,需要考慮的就是如何采集位于Docker容器中的應用程序的打印日志供運維分析。典型的比如SpringBoot應用的日志 收集。本文即將闡述如何利用ELK日志中心來收集容器化應用程序所產生的日志,并且可以用可視化的方式對日志進行查詢與分析,其架構如下圖所示:
架構圖
鏡像準備
鏡像準備
ElasticSearch鏡像
Logstash鏡像
Kibana鏡像
Nginx鏡像(作為容器化應用來生產日志)
開啟Linux系統Rsyslog服務
修改Rsyslog服務配置文件:
vim /etc/rsyslog.conf
開啟下面三個參數:
$ModLoad imtcp $InputTCPServerRun 514 *.* @@localhost:4560
開啟3個參數
意圖很簡單:讓Rsyslog加載imtcp模塊并監(jiān)聽514端口,然后將Rsyslog中收集的數據轉發(fā)到本地4560端口!
然后重啟Rsyslog服務:
systemctl restart rsyslog
查看rsyslog啟動狀態(tài):
netstat -tnl
部署ElasticSearch服務
docker run -d -p 9200:9200 \ -v ~/elasticsearch/data:/usr/share/elasticsearch/data \ --name elasticsearch elasticsearch
ES啟動成功效果
部署Logstash服務
添加 ~/logstash/logstash.conf
配置文件如下:
input { syslog { type => "rsyslog" port => 4560 } } output { elasticsearch { hosts => [ "elasticsearch:9200" ] } }
配置中我們讓Logstash從本地的Rsyslog服務中取出應用日志數據,然后轉發(fā)到ElasticSearch數據庫中!
配置完成以后,可以通過如下命令來啟動Logstash容器:
docker run -d -p 4560:4560 \ -v ~/logstash/logstash.conf:/etc/logstash.conf \ --link elasticsearch:elasticsearch \ --name logstash logstash \ logstash -f /etc/logstash.conf
部署Kibana服務
docker run -d -p 5601:5601 \ --link elasticsearch:elasticsearch \ -e ELASTICSEARCH_URL=http://elasticsearch:9200 \ --name kibana kibana
啟動nginx容器來生產日志
docker run -d -p 90:80 --log-driver syslog --log-opt \ syslog-address=tcp://localhost:514 \ --log-opt tag="nginx" --name nginx nginx
很明顯Docker容器中的Nginx應用日志轉發(fā)到本地syslog服務中,然后由syslog服務將數據轉給Logstash進行收集。
至此,日志中心搭建完畢,目前一共四個容器在工作:
實驗驗證
瀏覽器打開 localhost:90
來打開Nginx界面,并刷新幾次,讓后臺產生GET請求的日志
打開Kibana可視化界面: localhost:5601
localhost:5601
收集Nginx應用日志
收集Nginx應用日志
查詢應用日志
在查詢框中輸入 program=nginx
可查詢出特定日志
查詢應用日志
以上是“如何利用ELK搭建Docker容器化應用日志中心”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業(yè)資訊頻道!
免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。