溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

如何使用shell命令統(tǒng)計(jì)日志

發(fā)布時(shí)間:2021-07-01 10:06:14 來源:億速云 閱讀:104 作者:小新 欄目:開發(fā)技術(shù)

這篇文章給大家分享的是有關(guān)如何使用shell命令統(tǒng)計(jì)日志的內(nèi)容。小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考,一起跟隨小編過來看看吧。

前言

假設(shè)有一個(gè)包含下面內(nèi)容的日志文件 access.log。我們以統(tǒng)計(jì)這個(gè)文件的日志為例。

date=2017-09-23 13:32:50 | ip=40.80.31.153 | method=GET | url=/api/foo/bar?params=something | status=200 | time=9.703 | bytes=129 | referrer="-" | user-agent="Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.7 (KHTML, like Gecko) Chrome/16.0.912.63 Safari/535.7" | cookie="-"
date=2017-09-23 00:00:00 | ip=100.109.222.3 | method=HEAD | url=/api/foo/healthcheck | status=200 | time=0.337 | bytes=10 | referrer="-" | user-agent="-" | cookie="-"
date=2017-09-23 13:32:50 | ip=40.80.31.153 | method=GET | url=/api/foo/bar?params=anything | status=200 | time=8.829 | bytes=466 | referrer="-" | user-agent="GuzzleHttp/6.2.0 curl/7.19.7 PHP/7.0.15" | cookie="-"
date=2017-09-23 13:32:50 | ip=40.80.31.153 | method=GET | url=/api/foo/bar?params=everything | status=200 | time=9.962 | bytes=129 | referrer="-" | user-agent="Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.7 (KHTML, like Gecko) Chrome/16.0.912.63 Safari/535.7" | cookie="-"
date=2017-09-23 13:32:50 | ip=40.80.31.153 | method=GET | url=/api/foo/bar?params=nothing | status=200 | time=11.822 | bytes=121 | referrer="-" | user-agent="Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.7 (KHTML, like Gecko) Chrome/16.0.912.63 Safari/535.7" | cookie="-"

不同的服務(wù)對(duì)應(yīng)的日志可能不一樣,本文使用示例日志的格式是:

date | ip | method | url | status | time | bytes | referrer | user-agent | cookie

注意:mac 系統(tǒng)和 linux 系統(tǒng)中的命令行為可能不同,以下命令請(qǐng)?jiān)?linux 系統(tǒng)中使用

排除特殊日志

統(tǒng)計(jì)日志時(shí),我們可能不關(guān)心 HEAD 請(qǐng)求,或者只關(guān)心 GET 請(qǐng)求,這里首先需要篩選日志,可以使用 grep 命令。-v 的含義是排除匹配的文本行。

grep GET access.log # 只統(tǒng)計(jì) GET 請(qǐng)求
grep -v HEAD access.log # 不統(tǒng)計(jì) HEAD 請(qǐng)求
grep -v 'HEAD\|POST' access.log # 不統(tǒng)計(jì) HEAD 和 POST 請(qǐng)求

查看接口耗時(shí)情況

我們可以將每行的 time 匹配出來,然后做一個(gè)排序。使用 awk 的 match 方法可以匹配正則:

awk '{ match($0, /time=([0-9]+\.[0-9]+)/, result); print result[1]}' access.log

awk 命令使用方法如下:

awk '{pattern + action}' {filenames}

我們實(shí)際上只用到了 action:match($0, /time=([0-9]+\.[0-9]+)/, result); print result[1] 這一段。

match 方法接收三個(gè)參數(shù):需要匹配的文本、正則表達(dá)式、結(jié)果數(shù)組。$0 代表 awk 命令處理的每一行,結(jié)果數(shù)組是可選的,因?yàn)槲覀円玫狡ヅ浣Y(jié)果所以這里傳入了一個(gè) result 數(shù)組,用來存儲(chǔ)匹配后的結(jié)果。

注意這里的正則我沒有使用 \d 來表示數(shù)字,因?yàn)?awk 指令默認(rèn)使用 “EREs",不支持 \d 的表示,具體請(qǐng)看 linux shell 正則表達(dá)式(BREs,EREs,PREs)差異比較。

result 數(shù)組實(shí)際上和 javascript 里的結(jié)果數(shù)組很像了,所以我們打印出第二個(gè)元素,即匹配到的內(nèi)容。執(zhí)行完這行命令后結(jié)果如下:

9.703
0.337
8.829
9.962
11.822

當(dāng)然實(shí)際上一天的日志可能是成千上萬條,我們需要對(duì)日志進(jìn)行排序,且只展示前 3 條。這里使用到 sort 命令。

sort 命令默認(rèn)從小到大排序,且當(dāng)作字符串排序。所以默認(rèn)情況下使用 sort 命令之后 "11" 會(huì)排在 "8" 前面。那么需要使用 -n 指定按數(shù)字排序,-r 來按從大到小排序,然后我們查看前 3 條:

awk '{ match($0, /time=([0-9]+\.[0-9]+)/, result); print result[1]}' access.log | sort -rn | head -3

結(jié)果:

11.822
9.962
9.703

查看耗時(shí)最高的接口

當(dāng)然我們一般不會(huì)只查看接口耗時(shí)情況,還需要把具體日志也打印出來,上面的命令就不能滿足要求了。

awk 的打印默認(rèn)是按空格分隔的,意思是 2017-09-23 GET 這一行如果使用 awk '{print $1}' 會(huì)打印出 "2017-09-23",類似地,$2 會(huì)打印出 GET。

根據(jù)日志特征,我們可以使用 | 來作為分隔符,這樣就能打印出各個(gè)我們感興趣的值了。因?yàn)槲覀兿胝页龊臅r(shí)最高的接口,那么我們把 time、date 和 url 單獨(dú)找出來。

awk 的 -F 參數(shù)用來自定義分隔符。然后我們可以數(shù)一下三個(gè)部分按 | 分隔后分別是第幾個(gè):time 是第 6 個(gè)、date 是第 1 個(gè)、url 是第 4 個(gè)。

awk -F '|' '{print $6 $1 $4}' access.log

這樣打出來結(jié)果為:

 time=9.703 date=2017-09-23 13:32:50 url=/api/foo/bar?params=something
 time=0.337 date=2017-09-23 00:00:00 url=/api/foo/healthcheck
 time=8.829 date=2017-09-23 13:32:50 url=/api/foo/bar?params=anything
 time=9.962 date=2017-09-23 13:32:50 url=/api/foo/bar?params=everything
 time=11.822 date=2017-09-23 13:32:50 url=/api/foo/bar?params=nothing

因?yàn)槲覀兿氚?time 來排序,而 sort 可以按列來排序,而列是按空格分隔的,我們目前第一列是 time=xxx,是不能排序的,所以這里要想辦法把 time= 給去掉,因?yàn)槲覀兒茈u賊地把耗時(shí)放在了第一列,那么其實(shí)再通過 time= 進(jìn)行分隔一下就行了。

awk -F '|' '{print $6 $1 $4}' access.log | awk -F 'time=' '{print $2}'

結(jié)果:

9.703 date=2017-09-23 13:32:50 url=/api/foo/bar?params=something
0.337 date=2017-09-23 00:00:00 url=/api/foo/healthcheck
8.829 date=2017-09-23 13:32:50 url=/api/foo/bar?params=anything
9.962 date=2017-09-23 13:32:50 url=/api/foo/bar?params=everything
11.822 date=2017-09-23 13:32:50 url=/api/foo/bar?params=nothing

使用 sort 的 -k 參數(shù)可以指定要排序的列,這里是第 1 列;再結(jié)合上面的排序,就能把耗時(shí)最高的日志打印出來了:

awk -F '|' '{print $6 $1 $4}' access.log | awk -F 'time=' '{print $2}' | sort -k1nr | head -3

結(jié)果:

11.822 date=2017-09-23 13:32:50 url=/api/foo/bar?params=nothing
9.962 date=2017-09-23 13:32:50 url=/api/foo/bar?params=everything
9.703 date=2017-09-23 13:32:50 url=/api/foo/bar?params=something

統(tǒng)計(jì)請(qǐng)求次數(shù)最多的接口

如果需要統(tǒng)計(jì)哪些接口每天請(qǐng)求量是最多的,只需要新引入 uniq 命令。

我們已經(jīng)可以通過 grep -v HEAD access.log | awk -F '|' '{print $4}' 來篩選出所有的 url,uniq 命令可以刪除 相鄰 的相同的行,而 -c 可以輸出每行出現(xiàn)的次數(shù)。

所以我們先把 url 排序以讓相同的 url 放在一起,然后使用 uniq -c 來統(tǒng)計(jì)出現(xiàn)的次數(shù):

grep -v HEAD access.log | awk -F '|' '{print $4}' | sort | uniq -c

因?yàn)槭纠罩緮?shù)量太少,我們假設(shè)日志里有多條,那么結(jié)果應(yīng)該類似下面:

1 url=/api/foo/bar?params=anything
19 url=/api/foo/bar?params=everything
4 url=/api/foo/bar?params=nothing
5 url=/api/foo/bar?params=something

接下來再 sort 即可:

grep -v HEAD access.log | awk -F '|' '{print $4}' | sort | uniq -c | sort -k1nr | head -10

感謝各位的閱讀!關(guān)于“如何使用shell命令統(tǒng)計(jì)日志”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,讓大家可以學(xué)到更多知識(shí),如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到吧!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI