Prometheus&Grafana 监控

整理自B站多个视频,

如尚硅谷https://www.bilibili.com/video/BV1HT4y1Z7vR

马哥https://www.bilibili.com/video/BV1AK4y1T7QQ

本文地址:https://blog.csdn.net/hancoder/article/details/121703904

笔记下载地址:https://download.csdn.net/download/hancoder/73496635

本文尚在整理中,先抛出来给大家参考

第1章 Prometheus 入门

Prometheus 受启发于 Google 的Brogmon 监控系统(相似的 Kubernetes 是从 Google的 Brog 系统演变而来),从 2012 年开始由前 Google 工程师在 Soundcloud 以开源软件的形式进行研发,并且于 2015 年早期对外发布早期版本。

2016 年 5 月继 Kubernetes 之后成为第二个正式加入 CNCF 基金会的项目,同年 6 月正式发布 1.0 版本。2017 年底发布了基于全新存储层的 2.0 版本,能更好地与容器平台、云平台配合。

Prometheus 作为新一代的云原生监控系统,目前已经有超过 650+位贡献者参与到Prometheus 的研发工作上,并且超过 120+项的第三方集成。

1.1 Prometheus 的特点

Prometheus 是一个开源的完整监控解决方案,其对传统监控系统的测试和告警模型进行了彻底的颠覆,形成了基于中央化的规则计算、统一分析和告警的新模型。 相比于传统监控系统,Prometheus 具有以下优点:

1.1.1 易于管理

➢ Prometheus 核心部分只有一个单独的二进制文件,不存在任何的第三方依赖(数据库,缓存等等)。唯一需要的就是本地磁盘,因此不会有潜在级联故障的风险。

➢ Prometheus 基于 Pull 模型的架构方式,可以在任何地方(本地电脑,开发环境,测试环境)搭建我们的监控系统。

➢ 对于一些复杂的情况,还可以使用 Prometheus 服务发现(Service Discovery)的能力动态管理监控目标。

1.1.2 监控服务的内部运行状态

Pometheus 鼓励用户监控服务的内部状态,基于Prometheus 丰富的 Client 库,用户可以轻松的在应用程序中添加对Prometheus 的支持,从而让用户可以获取服务和应用内部真正的运行状态。

1.1.3 强大的数据模型

所有采集的监控数据均以指标(metric)的形式保存在内置的时间序列数据库当中(TSDB,Time Series DB)。所有的样本除了基本的指标名称以外,还包含一组用于描述该样本特征的标签。如下所示:

http_request_status{code='200',content_path='/api/path',environment='produment'
} =>
[value1@timestamp1,value2@timestamp2...]http_request_status{ # 指标名称code='200', # 维度的标签content_path='/api/path2',environment='produment'
} =>
[value1@timestamp1,value2@timestamp2...] # 存储的样本值

每一条时间序列由**指标名称(Metrics Name)以及一组标签(Labels)**唯一标识。每条时间序列按照时间的先后顺序存储一系列的样本值。

➢ http_request_status:指标名称(Metrics Name)

➢ {code=‘200’,content_path=’/api/path’,environment=‘produment’}:表示维度的标签,基于这些 Labels 我们可以方便地对监控数据进行聚合,过滤,裁剪。

➢ [value1@timestamp1,value2@timestamp2…]:按照时间的先后顺序存储的样本值。

一个指标对应多个时序。(cpu的每个核心都是一个时序)

cpu使用率是个综合信息,如包含了用户空间使用率、内核空间使用率、切换使用率

指标是数据库, 每个表的字段是通过标签定义的

Job是Mysql主从复制进程,target是每个mysql

1.1.4 强大的查询语言 PromQL

Prometheus 内置了一个强大的数据查询语言 PromQL。 通过 PromQL 可以实现对监控数据的查询、聚合。同时 PromQL 也被应用于数据可视化(如 Grafana)以及告警当中。

通过PromQL 可以轻松回答类似于以下问题:

➢ 在过去一段时间中 95%应用延迟时间的分布范围?

➢ 预测在 4 小时后,磁盘空间占用大致会是什么情况?

➢ CPU 占用率前 5 位的服务有哪些?(过滤)

1.1.5 高效

对于监控系统而言,大量的监控任务必然导致有大量的数据产生。而Prometheus 可以高效地处理这些数据,对于单一Prometheus Server 实例而言它可以处理:

➢ 数以百万的监控指标

➢ 每秒处理数十万的数据点

1.1.6 可扩展

可以在每个数据中心、每个团队运行独立的Prometheus Sevrer。Prometheus 对于联邦集群的支持,可以让多个 Prometheus 实例产生一个逻辑集群,当单实例 Prometheus Server 处理的任务量过大时,通过使用功能分区(sharding)+联邦集群(federation)可以对其进行扩展。

1.1.7 易于集成

使用Prometheus 可以快速搭建监控服务,并且可以非常方便地在应用程序中进行集成。目前支持:Java,JMX,Python,Go,Ruby,.Net,Node.js 等等语言的客户端 SDK,基于这些 SDK 可以快速让应用程序纳入到 Prometheus 的监控当中,或者开发自己的监控数据收集程序。

同时这些客户端收集的监控数据,不仅仅支持 Prometheus,还能支持 Graphite 这些其他的监控工具。

同时Prometheus 还支持与其他的监控系统进行集成:Graphite,Statsd,Collected, Scollector, muini, Nagios 等。 Prometheus 社区还提供了大量第三方实现的监控数据采集支持:JMX,CloudWatch,EC2,MySQL,PostgresSQL,Haskell,Bash,SNMP, Consul,Haproxy,Mesos,Bind,CouchDB,Django,Memcached,RabbitMQ,Redis,RethinkDB,Rsyslog 等等。

1.1.8 可视化

➢ Prometheus Server 中自带的 Prometheus UI,可以方便地直接对数据进行查询,并且支持直接以图形化的形式展示数据。同时 Prometheus 还提供了一个独立的基于Ruby On Rails 的 Dashboard 解决方案 Promdash。

➢ 最新的 Grafana 可视化工具也已经提供了完整的Prometheus 支持,基于 Grafana 可以创建更加精美的监控图标。

➢ 基于Prometheus 提供的API 还可以实现自己的监控可视化UI

1.1.9 开放性

通常来说当我们需要监控一个应用程序时,一般需要该应用程序提供对相应监控系统协议的支持,因此应用程序会与所选择的监控系统进行绑定。为了减少这种绑定所带来的限制,对于决策者而言要么你就直接在应用中集成该监控系统的支持,要么就在外部创建单独的服务来适配不同的监控系统。

而对于 Prometheus 来说,使用 Prometheus 的 client library 的输出格式不止支持Prometheus 的格式化数据,也可以输出支持其它监控系统的格式化数据,比如 Graphite。因此你甚至可以在不使用Prometheus 的情况下,采用 Prometheus 的 client library 来让你的应用程序支持监控数据采集。

1.2 Prometheus 的架构

1.2.1 Prometheus 生态圈组件

prometheus 负责从 pushgatewayjob 中采集数据, 存储到后端 Storatge 中,可以通过PromQL 进行查询, 推送 alerts 信息到 AlertManager。 AlertManager 根据不同的路由规则进行报警通知

➢ Prometheus Server:主服务器,负责收集和存储时间序列数据,负责实现对监控数据的获取,存储以及查询。

➢ client libraies:应用程序代码插桩,将监控指标嵌入到被监控应用程序中

➢ Pushgateway:推送网关,为支持short-lived 作业提供一个推送网关。

Pushgateway:由于 Prometheus 数据采集采用 pull 方式进行设置的, 内置必须保证 prometheus server 和对应的 exporter 必须通信;当网络情况无法直接满足时,可以使用 pushgateway 来进行中转,可以通过pushgateway 将内部网络数据主动pus到gateway 里面去,而 prometheus 采用pull方式拉取 pushgateway 中数据。

➢ exporter:专门为一些应用开发的数据摄取组件—exporter,例如:HAProxy、StatsD、Graphite 等等。

exporter 简单说是采集端,通过 http 服务的形式保留一个 url 地址,prometheus server 通过访问该 exporter 提供的 endpoint 端点,即可获取到需要采集的监控数据。

AlertManager:在 prometheus 中,支持基于 PromQL 创建告警规则,如果满足定义的规则,则会产生一条告警信息,进入 AlertManager 进行处理。可以集成邮件,微信或者通过 webhook 自定义报警。

1.2.2 架构理解

Prometheus 既然设计为一个维度存储模型,可以把它理解为一个 OLAP 系统。

1、存储计算层

➢ Prometheus Server,里面包含了存储引擎和计算引擎。

➢ Retrieval 组件为取数组件,它会主动从 PushGateway 或者 Exporter 拉取指标数据。

➢ Service discovery,可以动态发现要监控的目标。

➢ TSDB,数据核心存储与查询。

➢ HTTP server,对外提供 HTTP 服务。

2、采集层

采集层分为两类,一类是生命周期较短的作业,还有一类是生命周期较长的作业。

➢ 短作业:直接通过 API,在退出时间指标推送给PushGateway 。

➢ 长作业:Retrieval 组件直接从 Job 或者 Exporter 拉取数据。

无论哪种方式,Server端都是pull的

Exporters:有指标暴露接口但不是HTTP格式,中间件

Instrumentation:应用程序内建的测量系统。

PushGateWay。

3、应用层

应用层主要分为两种,一种是AlertManager,另一种是数据可视化。

➢ AlertManager

对接Pagerduty,是一套付费的监控报警系统。可实现短信报警、5 分钟无人 ack 打电话通知、仍然无人 ack,通知值班人员 Manager…Emial,发送邮件… …

➢ 数据可视化

Prometheus build-in WebUI、Grafana、其他基于API 开发的客户端

第2章 Prometheus 的安装

官网:https://prometheus.io/

下载地址:https://prometheus.io/download/

2.1 安装 Prometheus Server

Prometheus 基于 Golang 编写,编译后的软件包,不依赖于任何的第三方依赖。只需要下载对应平台的二进制包,解压并且添加基本的配置即可正常启动 Prometheus Server。

2.1.1 上传安装包

  • 上传 prometheus-2.29.1.linux-amd64.tar.gz 到虚拟机的/opt/software 目录
# 解压到/opt/module 目录下:
tar  -zxvf  prometheus-2.29.1.linux-amd64.tar.gz -C /opt/module
# 修改目录名:
cd /opt/module
mv prometheus-2.29.1.linux-amd64 prometheus-2.29.1
# ln -s /usr/local/prometheus-2.13.1/ /usr/local/prometheus
#mkdir /usr/local/prometheus/data
  • 修改配置文件prometheus.yml:

配置文件解释:

在 scrape_configs 配置项下添加配置:

scrape_configs:
- job_name: 'prometheus'
static_configs:
- targets: ['hadoop202:9090']
# 添加 PushGateway 监控配置
- job_name: 'pushgateway'
static_configs:
- targets: ['hadoop202:9091']
labels:instance: pushgateway
# 添加 Node Exporter 监控配置
- job_name: 'node exporter'
static_configs:
- targets: ['hadoop202:9100', 'hadoop203:9100', 'hadoop204:9100']

配置说明:

1、global 配置块:此片段指定的是 prometheus 的全局配置, 比如采集间隔,抓取超时时间等。

➢ scrape_interval:拉取数据的时间间隔,默认为 1 分钟默认继承 global 值。

scrape_timeout: 抓取超时时间,默认继承 global 值。

➢ evaluation_interval:规则验证(生成 alert)的时间间隔,默认为 1 分钟。

2、rule_files 配置块:此片段指定报警规则文件, prometheus 根据这些规则信息,会推送报警信息到alertmanager 中。

3、scrape_configs 配置块:配置采集目标相关, prometheus 监视的目标。Prometheus自身的运行信息可以通过 HTTP 访问,所以Prometheus 可以监控自己的运行数据。指定抓取配置,prometheus 的数据采集通过此片段配置。

➢ job_name:监控作业的名称。他的下一集是instance,也就是target

➢ static_configs:表示静态目标配置,就是固定从某个 target 拉取数据。一个 scrape_config 片段指定一组目标和参数, 目标就是实例,指定采集的端点, 参数描述如何采集这些实例, 主要参数如下

➢ targets : 指定监控的目标, 其实就是从哪儿拉取数据。

metric_path: 抓取路径, 默认是/metrics

*_sd_configs: 指定服务发现配置

Prometheus 会从 http://hadoop202:9090/metrics 上拉取数据。

Prometheus 是可以在运行时自动加载配置的。启动时需要添加:–web.enable-lifecycle

可以配置系统服务

< :输入重定向
> :输出重定向
>> :输出重定向,进行追加,不会覆盖之前内容
<< :标准输入来自命令行的一对分隔号的中间内容.
# 添加到系统服务,需要更改自己的data和yaml目录
cat << EOF >/usr/lib/systemd/system/prometheus.service
[Unit]
Description=https://prometheus.io
[Service]
Restart=on-failure
ExecStart=/usr/local/prometheus/prometheus \
--storage.tsdb.path=/usr/local/prometheus/data/ \
--config.file=/usr/local/prometheus/prometheus.yml
[Install]
WantedBy=multi-user.target
EOF
[root@docker-3 prometheus]# cp prometheus.yml prometheus.yml.bak[root@jumpserver x]# systemctl start prometheus #启动 http://ip:9090

访问测试

process_cpu_seconds_total

2.2 安装 Pushgateway

Prometheus 在正常情况下是采用拉模式从产生 metric 的作业或者 exporter(比如专门监控主机的NodeExporter)拉取监控数据。但是我们要监控的是 Flink on YARN 作业,想要让 Prometheus 自动发现作业的提交、结束以及自动拉取数据显然是比较困难的。

PushGateway 就是一个中转组件,通过配置Flink on YARN 作业将 metric 推到PushGateway,Prometheus 再从PushGateway 拉取就可以了。

  • 上传 pushgateway-1.4.1.linux-amd64.tar.gz 到虚拟机的/opt/software 目录
tar  -zxvf  pushgateway-1.4.1.linux-amd64.tar.gz  -C /opt/modulecd /opt/module &&  mv pushgateway-1.4.1.linux-amd64 pushgateway-1.4.1

2.3 安装Alertmanager(可选)

  • 上传安装包:上传alertmanager-0.23.0.linux-amd64.tar.gz 到虚拟机的/opt/software 目录
  • 解压安装包:解压到/opt/module 目录下,修改目录名
# 解压到/opt/module 目录下
[atguigu@hadoop202  software]$  tar  -zxvf  alertmanager-0.23.0.linux-amd64.tar.gz  -C /opt/module# 修改目录名
[atguigu@hadoop202 ~] cd /opt/module
[atguigu@hadoop202 module] mv alertmanager-0.23.0.linux-amd64 alertmanager-0.23.0

2.4 安装 Node Exporter(可选)

简言之就是在每个node启动之后就通过了每个node的查询接口,promethus就能收集到了

在 Prometheus 的架构设计中,Prometheus Server 主要负责数据的收集,存储并且对外提供数据查询支持,而实际的监控样本数据的收集则是由 Exporter 完成。

因此为了能够监控到某些东西,如主机的CPU 使用率,我们需要使用到 Exporter。Prometheus 周期性的从 Exporter 暴露的HTTP 服务地址(通常是/metrics)拉取监控样本数据。

Exporter 可以是一个相对开放的概念,其可以是一个独立运行的程序独立于监控目标以外,也可以是直接内置在监控目标中。只要能够向 Prometheus 提供标准格式的监控样本数据即可。

为了能够采集到主机的运行指标如CPU, 内存,磁盘等信息。我们可以使用Node Exporter。Node Exporter 同样采用 Golang 编写,并且不存在任何的第三方依赖,只需要下载,解压即可运行。可以从 https://prometheus.io/download/ 获取最新的 node exporter 版本的二进制包。

2.4.1 安装

# 上传 node_exporter-1.2.2.linux-amd64.tar.gz 到虚拟机的/opt/software 目录# 解压到/opt/module 目录下:
tar  -zxvf  node_exporter-1.2.2.linux-amd64.tar.gz  -C  /opt/module# 修改目录名:
cd /opt/module
mv node_exporter-1.2.2.linux-amd64 node_exporter-1.2.2  # 启动:
./node_exporter

通过页面查看是否成功执行:浏览器输入:http://hadoop202:9100/metrics,可以看到当前 node exporter 获取到的当前主机的所有监控数据。

2.4.2 节点分发

➢ 将解压后的目录分发到要监控的节点(课程里分发到了203 204结点)

[atguigu@hadoop202 module] xsync node_exporter-1.2.2

➢ 修改Prometheus server主机的配置文件 prometheus.yml,在 2.1.3 的时候已经添加过配置

这块的主机名自己改下就好

分发脚本:

cat  <<EOF > /usr/local/bin/xsync
#!/bin/bash# \`代表执行命令;$#代表取参数个数 $1代表取第一个参数  $p代表取变量内容
echo ======args==================
#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if((pcount==0)); then
echo no args;
exit;
fi
#2 获取文件名称
p1=$1
# 只有文件名
fname=`basename $p1`
echo filename=$fname
#3 获取上级目录的绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir
#4 获取当前用户名称
user=`whoami`
echo ------start------------------------------
#5 循环
for((host=1; host<4; host++)); do
echo --------------==  k8s-node$host ==------------------
rsync -rvl $pdir/$fname vagrant@k8s-node$host:$pdir
# 复制输入的文件名称 到 目标主机的同级目录下
done
echo ------over...----------------------------
#文件修改结束
EOF

2.4.3 设置为开机自启

➢ 创建service 文件

➢ 分发文件

# 创建service 文件
[atguigu@hadoop202 module] sudo vim /usr/lib/systemd/system/node_exporter.service
[Unit]
Description=node_export
Documentation=https://github.com/prometheus/node_exporter
After=network.target
[Service]
Type=simple
User=atguigu
ExecStart= /opt/module/node_exporter-1.2.2/node_exporter
Restart=on-failure
[Install]
WantedBy=multi-user.target#  分发文件
[atguigu@hadoop202 module] sudo /home/atguigu/bin/xsync /usr/lib/systemd/system/node_exporter.service
#  设为开机自启动(所有机器都执行)
[atguigu@hadoop202 module] sudo systemctl enable node_exporter.service
#  启动服务(所有机器都执行)
[atguigu@hadoop202 module] sudo systemctl start node_exporter.service

2.5 启 动 Prometheus Server 、 Pushgateway 和Alertmanager

# 2.5.1  Prometheus Server 目录下执行启动命令 # 后台运行 输出log
[atguigu@hadoop202  prometheus-2.29.1]$  nohup    ./prometheus
--config.file=prometheus.yml > ./prometheus.log 2>&1 &# 2.5.2  Pushgateway 目录下执行启动命令
[atguigu@hadoop202   pushgateway-1.4.1]$ nohup  ./pushgateway --web.listen-address :9091 > ./pushgateway.log 2>&1 &# 2.5.3  在 Alertmanager 目录下启动
[atguigu@hadoop202   alertmanager-0.23.0]$ nohup ./alertmanager --config.file=alertmanager.yml > ./alertmanager.log 2>&1 &

2.5.4 打开 web 页面查看

➢ 浏览器输入:http://hadoop202:9090/

➢ 点击 Status,选中 Targets:

➢ prometheus、pushgateway 和 node exporter 都是 up 状态,表示安装启动成功:

第3章 PromQL介绍

Prometheus 通过指标名称(metrics name)以及对应的一组标签(labelset)唯一定义一条时间序列。指标名称反映了监控样本的基本标识,而 label 则在这个基本特征上为采集到的数据提供了多种特征维度。用户可以基于这些特征维度过滤,聚合,统计从而产生新的计算后的一条时间序列。

PromQL 是 Prometheus 内置的数据查询语言,其提供对时间序列数据丰富的查询,聚合以及逻辑运算能力的支持。并且被广泛应用在Prometheus的日常应用当中,包括对数据查询、可视化、告警处理当中。

PromQL 是Prometheus 所有应用场景的基础

访问9090:/metrics 可以查看所有指标

3.1 基本用法

3.1.1 查询时间序列

当 Prometheus 通过 Exporter 采集到相应的监控指标样本数据后,我们就可以通过PromQL 对监控样本数据进行查询。

当我们直接使用监控指标名称查询时,可以查询该指标下的所有时间序列。如:

prometheus_http_requests_total
等同于:
prometheus_http_requests_total{}

该表达式会返回指标名称为 prometheus_http_requests_total 的所有时间序列:

prometheus_http_requests_total{code="200",handler="alerts",instance="localhost:9090",job="prometheus",method="get"
}= (20889@1518096812.326)prometheus_http_requests_total{code="200",handler="graph",instance="localhost:9090",job="prometheus",method="get"
}= (21287@1518096812.326)

PromQL 还支持用户根据时间序列的标签匹配模式来对时间序列进行过滤,目前主要支持两种匹配模式:完全匹配和正则匹配。

➢ PromQL 支持使用 = 和 != 两种完全匹配模式:

⚫ 通过使用 label=value 可以选择那些标签满足表达式定义的时间序列;

⚫ 反之使用 label!=value 则可以根据标签匹配排除时间序列;

例如,如果我们只需要查询所有 prometheus_http_requests_total 时间序列中满足标签 instance 为 localhost:9090 的时间 序列,则可以使用如下表达式:

prometheus_http_requests_total{instance="localhost:9090"}

反之使用 instance!=“localhost:9090” 则可以排除这些时间序列:

prometheus_http_requests_total{instance!="localhost:9090"}

➢ PromQL 还可以支持使用正则表达式作为匹配条件,多个表达式之间使用 | 进行分离:

⚫ 使用 label=~regx 表示选择那些标签符合正则表达式定义的时间序列;

⚫ 反之使用 label!~regx 进行排除;

例如,如果想查询多个环节下的时间序列序列可以使用如下表达式:

prometheus_http_requests_total{environment=~"staging|testing|development",method!="GET
"}
排除用法
prometheus_http_requests_total{environment!~"staging|testing|development",method!="GET
"}

3.1.2 范围查询

直接通过类似于 PromQL 表达式 httprequeststotal 查询时间序列时,返回值中只会包含该时间序列中的最新的一个样本值,这样的返回结果我们称之为瞬时向量。而相应的这样的表达式称之为 瞬时向量表达式

而如果我们想过去一段时间范围内的样本数据时,我们则需要使用区间向量表达式。区间向量表达式和瞬时向量表达式之间的差异在于在区间向量表达式中我们需要定义时间选择的范围,时间范围通过时间范围选择器 [] 进行定义。 例如,通过以下表达式可以选择

最近 5 分钟内的所有样本数据:

prometheus_http_requests_total{}[5m]

该表达式将会返回查询到的时间序列中最近 5 分钟的所有样本数据:

prometheus_http_requests_total{code="200",handler="alerts",instance="localhost:9090",job="prometheus",method="get"
}=[1@1518096812.3261@1518096817.3261@1518096822.3261@1518096827.3261@1518096832.3261@1518096837.325
]                                                                                   9.
prometheus_http_requests_total{code="200",handler="graph",instance="localhost:9090",job="prometheus",method="get"
}=[4@1518096812.3264@1518096817.3264@1518096822.3264@1518096827.3264@1518096832.3264@1518096837.325
]

通过区间向量表达式查询到的结果我们称为区间向量。 除了使用 m 表示分钟以外,

PromQL 的时间范围选择器支持其它时间单位:

s - 秒
m - 分钟
h - 小时
d - 天
w - 周
y - 年

3.1.3 时间位移操作

在瞬时向量表达式或者区间向量表达式中,都是以当前时间为基准:

prometheus_http_requests_total{} # 瞬时向量表达式,选择当前最新的数据
prometheus_http_requests_total{}[5m] # 区间向量表达式,选择以当前时间为基准,5 分钟内的数据

而如果我们想查询,5 分钟前的瞬时样本数据,或昨天一天的区间内的样本数据呢? 这个时候我们就可以使用位移操作,位移操作的关键字为 offset。 可以使用 offset 时间位移操作:

prometheus_http_requests_total{} offset 5m
prometheus_http_requests_total{}[1d] offset 1d

3.1.4 使用聚合操作

一般来说,如果描述样本特征的标签(label)在并非唯一的情况下,通过 PromQL 查询数据,会返回多条满足这些特征维度的时间序列。而 PromQL 提供的聚合操作可以用来对这些时间序列进行处理,形成一条新的时间序列:

# 查询系统所有 http 请求的总量
sum(prometheus_http_requests_total)
# 按照 mode 计算主机 CPU 的平均使用时间
avg(node_cpu_seconds_total) by (mode)
# 按照主机查询各个主机的 CPU 使用率
sum(sum(irate(node_cpu_seconds_total{mode!='idle'}[5m]))     /     sum(irate(node_cpu_seconds_total [5m]))) by (instance)

3.1.5 标量和字符串

除了使用瞬时向量表达式和区间向量表达式以外,PromQL 还直接支持用户使用标量(Scalar)和字符串(String)。

➢ 标量(Scalar):一个浮点型的数字值

标量只有一个数字,没有时序。 例如:10

需要注意的是,当使用表达式 count(prometheus_http_requests_total),返回的数据类型,依然是瞬时向量。用户可以通过内置函数scalar()将单个瞬时向量转换为标量。

➢ 字符串(String):一个简单的字符串值

直接使用字符串,作为PromQL 表达式,则会直接返回字符串。

"this is a string"
'these are unescaped: \n \\ \t'
`these are not unescaped: \n ' " \t

3.1.6 合法的 PromQL 表达式

所有的 PromQL 表达式都必须至少包含一个指标名称(例如 http_request_total),或者一个不会匹配到空字符串的标签过滤器(例如{code=”200”})。

因此以下两种方式,均为合法的表达式:
prometheus_http_requests_total # 合法
prometheus_http_requests_total{} # 合法
{method="get"} # 合法而如下表达式,则不合法:
{job=~".*"} # 不合法同时,除了使用  {label=value}  的形式以外,我们还可以使用内置的 name 标签来指定监控指标名称:
{  name  =~"prometheus_http_requests_total"} # 合法
{  name  =~"node_disk_bytes_read|node_disk_bytes_written"} # 合法

3.2 PromQL 操作符

使用PromQL 除了能够方便的按照查询和过滤时间序列以外,PromQL 还支持丰富的操作符,用户可以使用这些操作符对进一步的对事件序列进行二次加工。这些操作符包括:数学运算符,逻辑运算符,布尔运算符等等。

3.2.1 数学运算

PromQL 支持的所有数学运算符如下所示:

+ (加法)
- (减法)
* (乘法)
/ (除法)
% (求余)
^ (幂运算)

3.2.2 布尔运算

➢ Prometheus 支持以下布尔运算符如下:

== (相等)
!= (不相等)
>(大于)
< (小于)
>= (大于等于)
<= (小于等于)

➢ 使用bool 修饰符改变布尔运算符的行为

布尔运算符的默认行为是对时序数据进行过滤。而在其它的情况下我们可能需要的是真正的布尔结果。例如,只需要 知道当前模块的 HTTP 请求量是否>=1000,如果大于等于1000 则返回 1(true)否则返回 0(false)。这时可以使 用 bool 修饰符改变布尔运算的默认行为。 例如:

prometheus_http_requests_total > bool 1000

使用 bool 修改符后,布尔运算不会对时间序列进行过滤,而是直接依次瞬时向量中的各个样本数据与标量的比较结果 0 或者 1。从而形成一条新的时间序列。

prometheus_http_requests_total{code="200",handler="query",instance="localhost:9090",job="prometheus",method="get"
}  1
prometheus_http_requests_total{code="200",handler="query_range",instance="localhost:9090",job="prometheus",method="get"
} 0

同时需要注意的是,如果是在两个标量之间使用布尔运算,则必须使用 bool 修饰符:2 == bool 2 # 结果为 1

3.2.3 使用集合运算符

使用瞬时向量表达式能够获取到一个包含多个时间序列的集合,我们称为瞬时向量。通过集合运算,可以在两个瞬时向量与瞬时向量之间进行相应的集合操作。

目前,Prometheus 支持以下集合运算符:

and (并且)
or (或者)
unless (排除)

vector1 and vector2 会产生一个由 vector1 的元素组成的新的向量。该向量包含vector1 中完全匹配 vector2 中的元素组成。

vector1 or vector2 会产生一个新的向量,该向量包含 vector1 中所有的样本数据,以及 vector2 中没有与 vector1 匹配到的样本数据。

vector1 unless vector2 会产生一个新的向量,新向量中的元素由 vector1 中没有与vector2 匹配的元素组成。

3.2.4 操作符优先级

对于复杂类型的表达式,需要了解运算操作的运行优先级。例如,查询主机的 CPU 使用率,可以使用表达式:

100 * (1 - avg (irate(node_cpu_seconds_total{mode='idle'}[5m])) by(job) )

其中irate 是PromQL中的内置函数,用于计算区间向量中时间序列每秒的即时增长率。在 PromQL 操作符中优先级由高到低依次为:

^
*, /, %
+, -
==, !=, <=, =, >
and, unless
or

3.2.5 PromQL 聚合操作

Prometheus 还提供了下列内置的聚合操作符,这些操作符作用域瞬时向量。可以将瞬时表达式返回的样本数据进行 聚合,形成一个新的时间序列。

sum (求和)
min (最小值)
max (最大值)
avg (平均值)stddev (标准差)
stdvar (标准差异)
count (计数)
count_values (对 value 进行计数)
bottomk (后 n 条时序)
topk (前n 条时序)
quantile (分布统计)

使用聚合操作的语法如下:

<aggr-op>([parameter,] <vector expression>) [without|by (<label list>)]

其中只有 count_values , quantile , topk , bottomk 支持参数(parameter)。

without 用于从计算结果中移除列举的标签,而保留其它标签。by 则正好相反,结果向量中只保留列出的标签,其余标签则移除。通过 without 和 by 可以按照样本的问题对数据进行聚合。

例如:

sum(prometheus_http_requests_total) without (instance)                  等价于
sum(prometheus_http_requests_total) by (code,handler,job,method)

如果只需要计算整个应用的 HTTP 请求总量,可以直接使用表达式:sum(prometheus_http_requests_total)

count_values 用于时间序列中每一个样本值出现的次数。count_values 会为每一个唯一的样本值输出一个时间序列,并且每一个时间序列包含一个额外的标签。 例如:count_values(“count”, prometheus_http_requests_total)

topk 和 bottomk 则用于对样本值进行排序,返回当前样本值前 n 位,或者后 n 位的时间序列。

获取 HTTP 请求数前 5 位的时序样本数据,可以使用表达式:topk(5, prometheus_http_requests_total)

quantile 用于计算当前样本数据值的分布情况 quantile(φ, express)其中 0 ≤ φ ≤ 1。

例如,当φ 为 0.5 时,即表示找到当前样本数据中的中位数:quantile(0.5, prometheus_http_requests_total)

第4章 Prometheus 和 Flink 集成

Flink 提供的 Metrics 可以在 Flink 内部收集一些指标,通过这些指标让开发人员更好地理解作业或集群的状态。由于集群运行后很难发现内部的实际状况,跑得慢或快,是否异常等,开发人员无法实时查看所有的 Task 日志。比如作业很大或者有很多作业的情况下,该如何处理?此时 Metrics 可以很好的帮助开发人员了解作业的当前状况。

从 Flink 的源码结构我们可以看到,Flink 官方支持 Prometheus,并且提供了对接Prometheus 的jar 包,很方便就可以集成。

4.1 拷贝jar 包

➢ 拷贝新的flink 目录,flink-prometheus

➢ 将 flink-metrics-prometheus-1.12.0.jar 拷贝到 <flink_home>/lib 目录下

# *Flink 的 Classpath 位于 lib 目录下,所以插件的jar 包需要放到该目录下*
[atguigu@hadoop202 flink-prometheus]$ cp /opt/module/flink-prometheus/plugins/metrics-prometheus/flink-metrics-prometheus-1.12.0.jar /opt/module/flink-prometheus/lib/

4.2 修改 Flink 配置

进入到 Flink 的 conf 目录,修改 flink-conf.yaml,添加如下配置:

##### 与 Prometheus 集成配置 #####
metrics.reporter.promgateway.class: org.apache.flink.metrics.prometheus.PrometheusPushGatewayReporter
# PushGateway 的主机名与端口号
metrics.reporter.promgateway.host: hadoop202
metrics.reporter.promgateway.port: 9091
# Flink metric 在前端展示的标签(前缀)与随机后缀
metrics.reporter.promgateway.jobName: flink-metrics-ppg
metrics.reporter.promgateway.randomJobNameSuffix: true
metrics.reporter.promgateway.deleteOnShutdown: false
metrics.reporter.promgateway.interval: 30 SECONDS
# 4.3  为了运行测试程序,启动 netcat
[atguigu@hadoop202 sbin]$ nc -lk 9999
## 4.4  启动hdfs、yarn,提交 flink 任务到 yarn 上
[atguigu@hadoop202 flink-prometheus]$ bin/flink run -t yarn-per-job -c
com.atguigu.flink.chapter02.Flink03_WordCount_UnboundStream ./flink-base-1.0-SNAPSHOT-jar-with-dependencies.jar

4.5 可以通过 8088 跳到flinkUI 的job 页面,查看指标统计

4.6 刷新 Prometheus 页面,如果有 flink 指标,集成成功

第5章 Prometheus 和 Grafana 集成

grafana 是一款采用 Go 语言编写的开源应用,主要用于大规模指标数据的可视化展现,是网络架构和应用分析中最流行的时序数据展示工具,目前已经支持绝大部分常用的时序数据库。下载地址:https://grafana.com/grafana/download

5.1 安装Grafana

# 将 grafana-8.1.2.linux-amd64.tar.gz 上传至/opt/software/目录下,解压:
[atguigu@hadoop202 software]$ tar -zxvf grafana-enterprise-8.1.2.linux-amd64.tar.gz -C /opt/module/
# 启动 Grafana
[atguigu@hadoop202 grafana-8.1.2]$ nohup ./bin/grafana-server web > ./grafana.log 2>&1 &
# 打开web:http://hadoop202:3000,默认用户名和密码:admin

5.3 关联Grafana的数据源 Prometheus

点击配置,点击 Data Sources:

点击添加按钮:

找到Prometheus,点击 Select

配置Prometheus Server 地址:

点击下方的 Save&Test:

出现绿色的提示框,表示与 Prometheus 正常联通:

点击 Back 返回即可,可以看到 Data Sources 页面,出现了添加的Prometheus:

5.4 手动创建仪表盘 Dashboard

点击左边栏的 “+”号,选择 Dashboard:

添加新的仪表板,点击 Add an empty panel:

row包含panel,一个指标可以多个面板

配置仪表板监控项:

一个仪表板可以配置多个监控项,添加其他监控项:

配置新的监控项:

5.5 直接添加 Flink 模板

手动一个个添加 Dashboard 比较繁琐,Grafana 社区鼓励用户分享 Dashboard,通过https://grafana.com/dashboards 网站,可以找到大量可直接使用的 Dashboard 模板。

Grafana 中所有的Dashboard 通过 JSON 进行共享,下载并且导入这些 JSON 文件,就可以直接使用这些已经定义好的 Dashboard:

进入Grafana 官网,搜索 Flink 模板:

选择自己喜欢的模板(800+下载的这个模板相对指标较多)

选中跳转页面后,点击 Download JSON。

点击 Grafana 界面左侧 ”+”号,选择 import:

上传 JSON 文件:

配置模板信息:

导入完,在首页即可看见添加的仪表盘,点击进去查看:

正常提交job,即可在 grafana 看到相关监控项的情况。

注意:代码里 env.execute(“作业名”),最好指定不同的作业名用于区分,不指定会使用默认的作业名:Flink Streaming Job,在 Grafana 页面就无法区分不同job!!!

5.6 添加 Node Exporter 模板

同 5.5,进入 https://grafana.com/dashboards 页面,

➢ 搜索Node Exporter,选择下载量最高的中文版本:

➢ 下载模板json 文件

➢ 在 Grafana 中导入模板:

➢ 欣赏酷炫又详细的监控页:

5.7 组件启停脚本

进入到/home/atguigu/bin 目录下,创建脚本flink-monitor.sh

#!/bin/bash
case $1 in
"start"){echo '----- 启动  prometheus -----'nohup /opt/module/prometheus-2.29.1/prometheus --web.enable-admin-api --config.file=/opt/module/prometheus-2.29.1/prometheus.yml > /opt/module/prometheus-2.29.1/prometheus.log 2>&1 &echo '----- 启动  pushgateway -----'nohup /opt/module/pushgateway-1.4.1/pushgateway --web.listen-address :9091 > /opt/module/pushgateway-1.4.1/pushgateway.log 2>&1 &echo '----- 启动  grafana -----'nohup /opt/module/grafana-8.1.2/bin/grafana-server --homepath /opt/module/grafana-8.1.2 web > /opt/module/grafana-8.1.2/grafana.log 2>&1 &};;
"stop"){echo '----- 停止  grafana -----'pgrep -f grafana | xargs killecho '----- 停止  pushgateway -----'pgrep -f pushgateway | xargs killecho '----- 停止  prometheus -----'pgrep -f prometheus | xargs kill
};;
esac

➢ 脚本添加执行权限

chmod +x flink-monitor.sh

5.8 配置案例

5.8.1 任务失败监控

这一个指标监控主要是基于 flink_jobmanager_job_uptime 这个指标进行了监控。原理是在 job 任务存活时,会按照配置 metrics.reporter.promgateway.interval 上报频率递增。基于这个特点,当任务失败后这个数值就不会改变,就能监控到任务失败。

➢ 添加监控项:

30 秒为数据上报到 promgateway 频率,除以 100 为了数据好看,当job 任务失败后数 flink 上报的promgateway 的 flink_jobmanager_job_uptime 指标值不会变化。 ((flink_jobmanager_job_uptime)-(flink_jobmanager_job_uptime offset 30s))/100 值就会是 0,可以配置告警。

➢ 配置告警

在告警通知中可以邮件和webhook,webhook 可以调用相关接口,执行一些动作。

webhook 需要提前配置,在这里配置告警时就可以直接引入。

5.8.2 网络延时或任务重启监控

这个告警也是基于flink_jobmanager_job_uptime 指标,在出现网络延时或者重启后进行监控通知,监控指标如下:

((flink_jobmanager_job_uptime offset 30s)-(flink_jobmanager_job_uptime))/1000

1)延时会导致值突然小于-30(正常情况为-30)

2)重启会导致 flink_jobmanager_job_uptime 指标清零从新从 0 值上报,导致查询公式值突然大于 0(正常情况为-30)

➢ 添加监控项

➢ 配置告警规则:

5.8.3 重启次数

基于flink_jobmanager_job_numRestarts 指标,表示 flink job 的重启次数。一般设置重启策略后,在任务异常重启后这个数值会递增+1。可以单纯的监控重启次数,也可以每次重启都进行告警(差值)。

利用当前值减去 30 秒前的值,如果等于 1 证明重启了一次。

➢添加告警规则:

第6章 集成第三方告警平台睿象云

邮件通知常会出现接收不及时的问题,为确保通知信息被及时接收,可通过配置Prometheus 或者 Grafana 与第三方平台告警平台(例如睿象云)集成,进而通过第三方平台提供的多种告警媒介(例如电话,短信)等发送告警信息。

本文以第三方告警平台睿象云为例,进行集成演示。

6.1 注册睿象云账号

集成睿象云之前须在其官网进行注册并登录,注册时需填入个人手机号和电子邮箱,以下是其官方网站 https://www.aiops.com。登录之后会看到如下界面。

6.2 集成 Grafana

Grafana检测到后告诉睿象云

  1. 点击CA 智能告警平台

  1. 点击集成

  1. 选择 Grafana

  1. 填入应用名称,并点击“保存并获取应用 key”

  1. 得到AppKey 之后,配置Grafana

  1. 在 Grafana 中创建Notification channel,

  1. 配置 channel

  1. Test&Save 测试后会接到电话以及邮件

6.3 配置分派策略

分派策略可以配置,哪些应用的告警信息,发送给哪些用户。例如实时数仓的告警信息发送给张三

  1. 点击“配置”→“分派策略”→“新建分派”

  1. 配置具体分派策略

6.4 配置通知策略

通知策略,可以配置被分派人接收告警的通知方式,通知时间,通知延时等等。

1)点击“配置”→“通知策略”→“新建通知”

2)配置具体的通知策略

6.5 测试电话、短信和邮件通知

我们将 netcat 停掉,flink 服务就会停止,随后即可触发睿象云的动作,进而根据我们配置的分派策略和通知策略,发送告警信息。按照本文的配置,告警信息会以邮件、短信和电话的方式发送到注册时填入的手机号码。

监控

添加mysql的监控

在mysql的机器上部署 mysql_exporter
  • 项目地址 https://github.com/prometheus/mysqld_exporter
使用ansible部署 mysql_exporter
ansible-playbook -i host_file  service_deploy.yaml  -e "tgz=mysqld_exporter-0.12.1.linux-amd64.tar.gz" -e "app=mysqld_exporter"
创建采集用户,并授权
mysql -uroot -p123123CREATE USER 'exporter'@'%' IDENTIFIED BY '123123' ;
GRANT PROCESS, REPLICATION CLIENT, SELECT ON *.* TO 'exporter'@'%';
FLUSH PRIVILEGES;

方式一:在mysqld_exporter的service 文件中使用环境变量 DATA_SOURCE_NAME

# 代表localhost
Environment=DATA_SOURCE_NAME=exporter:123123@tcp/

方式二:使用my.cnf启动服务

Environment=DATA_SOURCE_NAME='exporter:123123@(localhost:3306)/'
重启mysqld_exporter服务
systemctl daemon-reload
systemctl restart mysqld_exporter
将mysqld_exporter 采集加入的采集池中
[root@prome-master01 prometheus]# cat prometheus.yml- job_name: mysqld_exporterhonor_timestamps: truescrape_interval: 15sscrape_timeout: 10smetrics_path: /metricsscheme: httpstatic_configs:- targets:- 127.0.0.1:9104
grafana 上导入mysqld-dashboard
  • 地址 https://grafana.com/grafana/dashboards/11323

若有收获,就点个赞吧

本文md获取方式:https://download.csdn.net/download/hancoder/73496635

【Prometheus】PrometheusGrafana 监控相关推荐

  1. 实战 Prometheus 搭建监控系统

    欢迎关注方志朋的博客,回复"666"获面试宝典 Prometheus 是一款基于时序数据库的开源监控告警系统,说起 Prometheus 则不得不提 SoundCloud,这是一个 ...

  2. 基于 Prometheus 的监控系统实践

    监控作为底层基础设施的一环,是保障生产环境服务稳定性不可或缺的一部分,线上问题从发现到定位再到解决,通过监控和告警手段可以有效地覆盖了「发现」和「定位」,甚至可以通过故障自愈等手段实现解决,服务开发和 ...

  3. 搭建prometheus+grafana监控系统

    prometheus简介 Prometheus是最初在SoundCloud上构建的开源系统监视和警报工具包 .自2012年成立以来,许多公司和组织都采用了Prometheus,该项目拥有非常活跃的开发 ...

  4. Grafana+Prometheus系统监控之webhook

    概述 Webhook是一个API概念,并且变得越来越流行.我们能用事件描述的事物越多,webhook的作用范围也就越大.Webhook作为一个轻量的事件处理应用,正变得越来越有用. 准确的说webho ...

  5. 使用Prometheus+Grafana 监控MySQL/MONGODB

    使用Prometheus+Grafana 监控MySQL/MONGODB 之前就久仰 Prometheus 大名,因为有用zabbix 进行监控,就没去安装它.现在正好用上监控MONGO+MYSQL. ...

  6. Prometheus 系统监控方案

    最近一直在折腾时序类型的数据库,经过一段时间项目应用,觉得十分不错.而Prometheus又是刚刚推出不久的开源方案,中文资料较少,所以打算写一系列应用的实践过程分享一下. Prometheus 是什 ...

  7. 基于Prometheus+Grafana监控SQL Server数据库

    墨墨导读:本文整理了基于Prometheus+Grafana监控SQL Server数据库的全过程,分享至此,希望对大家有帮助. 搭建SQL Server环境 使用容器建立SQL Server环境非常 ...

  8. Prometheus+Grafana监控PostgreSQL

    Prometheus+Grafana监控PostgreSQL Prometheus:2.32.0 Grafana:8.3.3 PG:13.2 Linux:CentOS7.6 docker:18.06. ...

  9. Linux安装prometheus+grafana监控

    一.在业务中遇到服务器负载过高问题,由于没有监控,一直没发现,直到业务方反馈网站打开速度慢,才发现问题.这样显得开发很被动.所以是时候搭建一套监控系统了. 由于是业余时间自己捯饬,所以神马业务层面的监 ...

  10. 基于prometheus的监控解决方案

    基于prometheus的监控解决方案 参考文章: (1)基于prometheus的监控解决方案 (2)https://www.cnblogs.com/think-in-java/p/9094635. ...

最新文章

  1. Oracle定时执行存储过程
  2. 使用WinINet和WinHTTP实现Http訪问
  3. jQuery的选择器中的通配符[id^='code']
  4. eeglab中文教程系列(7)-数据叠加平均{2}绘制2D和3D图
  5. 十个 Laravel 5 程序优化技巧
  6. 成功解决but is 0 and 2 (computed from start 0 and end 9223372 over shape with rank 2 and stride-1)
  7. 大庆东风中学高考成绩查询2021年,2021年大庆中考成绩和分数线什么时候公布(附查询入口)...
  8. c语言变量相等问题穷举法,C语言穷举法经典例题.ppt
  9. Python高级数据类型-字符串,列表,元组,字典
  10. Python异常处理总结
  11. 牛客寒假算法集训 1
  12. 计算机网络应用基础试题6,计算机网络应用基础试题
  13. 实战CSS:苏宁商城静态实现
  14. 【封包技巧】利用wpe来(判断是否是某个特征码封包字节,然后进程修改)
  15. 电子表程序c语言,单片机c语言编程实例:电子表
  16. 数论著作读书笔记(2013-04-14 23:22)
  17. 全球及中国石墨烯行业发展前景规模及需求容量预测报告2021年版
  18. 使用LabelMe标注目标检测数据集并转换为VOC2017格式
  19. 李煜 天涯 青砚1989
  20. 【信号与系统】笔记(4-1)拉普拉斯变换

热门文章

  1. 11G rac修改监听端口
  2. python大鱼吃小鱼程序代码_写一个小游戏程序(大鱼吃小鱼)
  3. 夜雪潇潇,飘如落羽,一片片一朵朵
  4. 俄罗斯FAC认证介绍
  5. 零基础Matlab Note9--离散数据绘图set(gca, )
  6. android12.0(S) 从SD卡导入vCard文件到通讯录 号码带“-“ 如何把横线去除
  7. C++ 实现文件分割、合并
  8. 无人驾驶入门——2D检测 基于图片的检测算法(四)
  9. IEEE1588v2解析(4)--透明时钟/一步时钟/二步时钟
  10. 树莓派笔记12:通过SPI操作OLED显示屏