当服务器压力比较大,跑起来很费力时候。我们经常做站点页面优化,会去查找那些页面访问次数比较多,而且比较费时。 找到那些访问次数高,并且比较耗时的地址,就行相关优化,会取得立竿见影的效果的。 下面是我在做优化时候,经常用到的一段shell 脚本。 这个也可以算是,统计web页面的slowpage 慢访问页面,象mysql slowquery 。

以下是我的:nginx 配制

log_format  main  '$remote_addr - $remote_user [$time_local] $request '

'"$status" $body_bytes_sent "$http_referer" '

'"$http_user_agent" "$http_x_forwarded_for" $request_time';

access_log  /var/log/nginx/access.log  main buffer=32k;

从上面配置,可以看到:ip在 第一列,页面耗时是在最后一列,中间用空格分隔。 因此在awk 中,分别可以用:$1

$NF 读取到当前值。 其中NF是常量,代表整个列数。

下面是分析代码的shell文件,可以存为slow.sh

#!/bin/sh

export PATH=/usr/bin:/bin:/usr/local/bin:/usr/X11R6/bin;

export LANG=zh_CN.GB2312;

function usage()

{

echo "$0 filelog  options";

exit 1;

}

function slowlog()

{

#set -x;

field=$2;

files=$1;

end=2;

msg="";

[[ $2 == '1' ]] && field=1&&end=2&&msg="总访问次数统计";

[[ $2 == '2' ]] && field=3&&end=4&&msg="平均访问时间统计";

echo -e "\r\n\r\n";

echo -n "$msg";

seq -s '#' 30 | sed -e 's/[0-9]*//g';

awk '{split($7,bbb,"?");arr[bbb[1]]=arr[bbb[1]]+$NF; arr2[bbb[1]]=arr2[bbb[1]]+1; } END{for ( i in arr ) { print i":"arr2[i]":"arr[i]":"arr[i]/arr2[i]}}' $1 | sort  -t: +$field -$end -rn |grep "pages" |head -30 | sed 's/:/\t/g'

}

[[ $# < 2 ]] && usage;

slowlog $1 $2;

只需要执行:slow.sh 日志文件  1或者2

1:三十条访问最平凡的页面

2:三十条访问最耗时的页面

执行结果如下:

chmod +x ./slow.sh

chmod +x slow.sh

./slow.sh /var/log/nginx/

./slow.sh /var/log/nginx/access.log 2

平均访问时间统计#############################

/pages/########1.php        4       120.456 30.114

/pages/########2.php 1       16.161  16.161

/pages/########3.php 212     1122.49 5.29475

/pages/########4.php     6       28.645  4.77417

..................

希望以上脚本对大家会有一定帮助。

shell最大出现和连续出现次数_shell脚本分析 nginx日志访问次数最多及最耗时的页面(慢查询)...相关推荐

  1. shell脚本分析 nginx日志访问次数最多及最耗时的页面(慢查询)

    当服务器压力比较大,跑起来很费力时候.我们经常做站点页面优化,会去查找那些页面访问次数比较多,而且比较费时. 找到那些访问次数高,并且比较耗时的地址,就行相关优化,会取得立竿见影的效果的. 下面是我在 ...

  2. ip访问次数统计 nginx_Linux分析Nginx日志统计IP访问次数的shell脚本

    平时运维遇到最多的就是nginx的日志分析了,要时常做系统监控,检查IP的访问次数是否有异常,防止恶意访问. 假设我的nginx日志如下: ....... 211.253.43.23 - - [03/ ...

  3. Google Analytics(分析)如何计算访问次数

    "访问"和"会话"这两个术语的意思相似,有时可以互换使用. 此信息仅适用于传统Google Analytics(分析)JavaScript (ga.js).查看 ...

  4. 宝塔linux shell定时访问url,bt(宝塔)面板添加shell 脚本通过nginx日志封访问频率过高的IP...

    额,这篇文章是bt(宝塔)面板来写的文章,其他的程序如果是wdcp管理面板也有添加shell脚本的功能,大鸟自己用的是bt(宝塔)面板,所以说说如何添加shell 脚本通过nginx日志封访问频率过高 ...

  5. shell脚本使得nginx日志每天定时切割压缩

    Linux下添加shell脚本使得nginx日志每天定时切割压缩 对于nginx的日志文件,特别是access日志,如果我们不做任何处理的话,最后这个文件将会变得非常庞大 这时,无论是出现异常时查日志 ...

  6. python定时任务执行shell脚本切割Nginx日志-慎用

    Python定时任务执行shell脚本切割Nginx日志(慎用) 缘起 我们有一个Nginx服务用来接收埋点上报数据,输出的日志文件比较大,Nginx没有自带日志分割组件,这样输出的日志文件就比较大, ...

  7. SHELL 分析 列出当天访问次数最多的IP

    SHELL 分析日志 作者:lvtao发布于:2013-7-3 14:58 Wednesday 分类:工具源码 列出当天访问次数最多的IP 命令:cut -d- -f 1 /usr/local/apa ...

  8. MapReduce编程入门-日志访问次数统计任务

    使用到的资源 hadoop-eclipse-plugin-2.6.4.jar hadoop-2.7.7 日志文件 user_login.txt 上述资源以及实验源码均已上传到百度云盘,可自行获取 链接 ...

  9. shell脚本统计分析Nginx日志

    #!/bin/bash #功能描述(Description):Nginx标准日志分析脚本. #统计信息包括: #1.页面访问量PV #2.用户量UV #3.人均访问量 #4.每个IP的访问次数 #5. ...

最新文章

  1. 最新县及县以上行政区划代码(截止2010年12月31日)
  2. Android Fragment 你应该知道的一切
  3. sql backup database备份d盘_Oracle RMAN备份与恢复
  4. pandas.get_dummies
  5. OpenGL MSAA多重采样抗锯齿的实例
  6. python连接clickhouse
  7. 国际人工智能算法与应用研讨会(WASA 2018)参会笔记
  8. LFS,编译自己的Linux系统 - 前言
  9. word删除所有的回车、空格
  10. Golang笔记——反射
  11. oracle 039 00 039,python+robot+oracle:执行脚本时中文sql报错:UnicodeEncodeError: #039;ascii#039; codec can#...
  12. SLAM_关于VIO中IMU预积分的讲解
  13. 光纤传输与网络技术作业(第一部分)
  14. C语言底层原理(一):预处理、编译、汇编、链接
  15. 免费PPT模板下载??
  16. 雅虎邮箱发送失败及MIME协议
  17. 线程池满Thread pool exhausted排查和解决
  18. 金丹期前期:1.11、python语言进阶-网络
  19. 两万用户的项目需要多大服务器,两万左右服务器配置
  20. OJ old1226 算法提高 质数的后代

热门文章

  1. 东莞.NET俱乐部线下技术沙龙-活动报名
  2. 【活动(北京)】Global Azure Bootcamp
  3. 使用Microsoft.AspNetCore.TestHost进行完整的功能测试
  4. 体验 PHP under .NET Core
  5. Build Tour 2017 中国站北京、上海报名了
  6. Visual Studio现可使用EditorConfig
  7. 程序员小测试:保守派 vs 自由派
  8. 【给中高级开发者】构建高性能ASP.NET应用的几点建议
  9. Nginx 模块的使用
  10. GPS实验一:GPS手持机的使用