您好,登錄后才能下訂單哦!
本篇內容介紹了“如何理解shell腳本nginx日志訪問次數最多及最耗時的頁面”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!
當服務器壓力比較大,跑起來很費力時候。我們經常做站點頁面優化,會去查找那些頁面訪問次數比較多,而且比較費時。 找到那些訪問次數高,并且比較耗時的地址,就行相關優化,會取得立竿見影的效果的。 下面是我在做優化時候,經常用到的一段shell 腳本。 這個也可以算是,統計web頁面的slowpage 慢訪問頁面,象mysql slowquery 。
以下是我的:nginx 配制
代碼如下:
log_format main '$remote_addr - $remote_user [$time_local] $request '
'"$status" $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for" $request_time';
access_log /var/log/nginx/access.log main buffer=32k;
從上面配置,可以看到:ip在 第一列,頁面耗時是在最后一列,中間用空格分隔。 因此在awk 中,分別可以用:$1
$NF 讀取到當前值。 其中NF是常量,代表整個列數。
下面是分析代碼的shell文件,可以存為slow.sh
代碼如下:
#!/bin/sh
export PATH=/usr/bin:/bin:/usr/local/bin:/usr/X11R6/bin;
export LANG=zh_CN.GB2312;
function usage()
{
echo "$0 filelog options";
exit 1;
}
function slowlog()
{
#set -x;
field=$2;
files=$1;
end=2;
msg="";
[[ $2 == '1' ]] && field=1&&end=2&&msg="總訪問次數統計";
[[ $2 == '2' ]] && field=3&&end=4&&msg="平均訪問時間統計";
echo -e "\r\n\r\n";
echo -n "$msg";
seq -s '#' 30 | sed -e 's/[0-9]*//g';
awk '{split($7,bbb,"?");arr[bbb[1]]=arr[bbb[1]]+$NF; arr2[bbb[1]]=arr2[bbb[1]]+1; } END{for ( i in arr ) { print i":"arr2[i]":"arr[i]":"arr[i]/arr2[i]}}' $1 | sort -t: +$field -$end -rn |grep "pages" |head -30 | sed 's/:/\t/g'
}
[[ $# < 2 ]] && usage;
slowlog $1 $2;
只需要執行:slow.sh 日志文件 1或者2
1:三十條訪問最平凡的頁面
2:三十條訪問最耗時的頁面
執行結果如下:
chmod +x ./slow.sh
chmod +x slow.sh
./slow.sh /var/log/nginx/
./slow.sh /var/log/nginx/access.log 2
平均訪問時間統計#############################
/pages/########1.php 4 120.456 30.114
/pages/########2.php 1 16.161 16.161
/pages/########3.php 212 1122.49 5.29475
/pages/########4.php 6 28.645 4.77417
“如何理解shell腳本nginx日志訪問次數最多及最耗時的頁面”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。