百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 博客教程 > 正文

ELK Stack8生产实践——ELK监控与告警(Prometheus)

connygpt 2024-12-16 11:38 9 浏览

kibana虽然也能实现告警,但仅能针对ES集群状态和查询结果配置告警规则,更多常用的告警媒介需要购买商业授权才可使用,且告警程序过度依赖Kibana服务,可能会因为单点故障导致告警无法正常触发。因此在生产环境中更推荐使用免费开源的Prometheus+Grafana方案实现ELK业务的监控与告警。

整体思路

监控架构图

监控组件说明

虽然grafana也支持配置Prometheus的告警规则,计算并触发告警事件,使用告警媒介通知,可替代Alertmanager的一部分功能。但是相较于Alertmanager,缺少了告警分组和告警抑制功能。因此推荐还是在Prometheus中配置告警规则推送至Alertmanager,待grafana告警功能后续功能逐步完善再停用Alertmanager。

上图的监控架构中,Prometheus侧重各个exporter指标的监控,保障组件服务的正常运行。而grafana侧重日志内容监控,保障业务的正常运行。两者都将告警内容推送至Alertmanager,最终由Alertmanager实现告警分组、告警抑制、告警根据分组和等级实现自定义通知等功能。更多Alertmanager的功能请参考文档:https://www.cuiliangblog.cn/detail/article/35

除了上图的几个Exporter,还可以添加process export用于服务进程监控,详细内容可参考文章:https://www.cuiliangblog.cn/detail/article/42。以及使用blackbox-export黑盒检测,通过HTTP探针、TCP探针监控服务是否正常,详细内容可参考文章:https://www.cuiliangblog.cn/detail/section/23460026。

由于Filebeat未提供API接口,所以不支持export采集指标监控。但可以转换思路,我们可以监控Filebeat写入Kafka的Topic速率,间接实现Filebeat采集监控。

alertmanager对接webhook实现告警通知可参考文档:https://www.cuiliangblog.cn/detail/article/57

监控组件部署

为方便演示,所有服务均采用docker部署。

node-exporter部署

在所有节点均执行

[root@es-master ~]# docker run -d -p 9100:9100 --pid="host" --name node-exporter --restart always -v "/:/host:ro,rslave" prom/node-exporter:latest --path.rootfs=/host

kafka-exporter部署

在master节点执行

[root@es-master ~]# docker run -d -p 9308:9308 --name kafka-exporter --restart always danielqsj/kafka-exporter --kafka.server=192.168.10.133:9092 --kafka.server=192.168.10.134:9092 --kafka.server=192.168.10.135:9092

logstash-exporter部署

先开启logstash api接口功能

[root@es-warm1 ~]# vim /etc/logstash/logstash.yml
api.http.host: 127.0.0.1
api.http.port: 9600
[root@es-warm1 ~]# systemctl restart logstash

在warm1节点部署

[root@es-warm1 ~]# docker run -d -p 9198:9198 --name logstash-exporter --restart always -e LOGSTASH_URL=http://192.168.10.136:9600 kuskoman/logstash-exporter:v1.4.0

elasticsearch-exporter部署

在master节点部署

[root@es-master ~]# docker run -d -p 9114:9114 --name es-exporter --restart always quay.io/prometheuscommunity/elasticsearch-exporter:latest --es.uri=https://elastic:_21FDs+tGRRSaxg=q=4P@192.168.10.132:9200 --es.indices --es.all --es.ssl-skip-verify

Alertmanager部署配置

在master节点部署

[root@es-master ~]# docker run -d -p 9093:9093 --name alertmanager --restart always quay.io/prometheus/alertmanager

访问验证

Prometheus部署配置

在master节点部署

[root@es-master ~]# mkdir /opt/prometheus
[root@es-master ~]# chown -R 65534:65534 /opt/prometheus
[root@es-master ~]# cd /opt/prometheus
[root@es-master prometheus]# docker run -d -p 9090:9090 --name prometheus --restart always -v $PWD/data:/prometheus prom/prometheus:latest

修改Prometheus配置文件,添加前面部署的exporter和alertmanager地址。

[root@es-master prometheus]# docker cp prometheus:/etc/prometheus/prometheus.yml .
[root@es-master prometheus]# vim prometheus.yml 
global:
  scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
  evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
# 填写Alertmanager地址
alerting:
  alertmanagers:
    - static_configs:
        - targets:
          - 192.168.10.132:9093

# 告警规则文件
rule_files:
  - /etc/prometheus/rules.yaml

# targets监控项
scrape_configs:
  - job_name: "prometheus"
    static_configs:
      - targets: ["localhost:9090"]
  - job_name: "node-exporter"
    static_configs:
      - targets: ["192.168.10.132:9100", "192.168.10.133:9100", "192.168.10.134:9100", "192.168.10.135:9100", "192.168.10.136:9100", "192.168.10.137:9100", "192.168.10.138:9100"]
  - job_name: "logstash-exporter"
    static_configs:
      - targets: ["192.168.10.136:9198"]
  - job_name: "kafka-exporter"
    static_configs:
      - targets: ["192.168.10.132:9308"]
  - job_name: "elasticsearch-exporter"
    static_configs:
      - targets: ["192.168.10.132:9114"]
[root@es-master prometheus]# docker cp prometheus.yml prometheus:/etc/prometheus/
[root@es-master prometheus]# docker restart prometheus

访问验证

grafana部署配置

在master节点部署

[root@es-master ~]# docker run --name grafana -d -p 3000:3000 --restart always grafana/grafana:10.0.3

访问验证,默认用户名密码为admin

添加Elasticsearch数据源

填写Elasticsearch配置信息

设置Alertmanager为默认告警媒介

点击右侧test按钮,发送测试告警信息,在alertmanager中查看。

grafana图表制作

我们可以通过grafana实现Prometheus监控指标的可视化,推荐大家从grafana的dashboard中心选择合适的dashboard,然后下载并导入本地grafana中,官方dashboard中心地址:https://grafana.com/grafana/dashboards/,本案例中制作的dashboard已上传至git仓库,仓库地址:https://gitee.com/cuiliang0302/log_demo/tree/main/other/grafana%20dashboard,以下是各个exporter监控效果图。

Node

Kafka

Logstash

Elasticsearch

告警规则配置(Grafana)

接下来以业务告警为例,告警条件为最近连续5分钟日志中5XX错误个数超过10个触发告警。

添加告警规则

点击左边栏alerting进入告警管理中心:

  • Alert rules:告警规则管理
  • Contact points:告警联系人管理
  • Notification policies:告警通知策略管理
  • Silence:告警静默管理
  • Alert group:告警历史管理

点击create alert rule创建告警规则。

告警规则配置

设置告警名称

设置告警条件

选择 Expression

Grafana 支持 5 种 expression 类型,根据需要选择合适的 expression 类型(使用方法 详见官方文档 ):

  1. Math: Math 是关于时间序列或数字数据的自由形式的数学公式。数学运算以数字和时间序列为输入,并将其转换为不同的数字和时间序列。
  2. Reduce: Reduce 获取从查询或表达式返回的一个或多个时间序列,并将每个序列转换为单个数字。时间序列的标签作为标签保存在每个输出的减少数上。
  3. Resample: Resample 更改每个时间序列中的时间戳,使其具有一致的时间间隔。主要用例是可以重新采样不共享相同时间戳的时间序列,以便在它们之间执行数学运算。这可以通过对两个系列中的每一个进行重新采样,然后在Math操作中引用重新采样的变量来实现。
  4. Classic condition: 从查询或表达式返回的结果中获取一个或多个时间序列,并检查是否有任何序列匹配阈值条件。
  5. Threshold: 从查询或表达式返回的结果中获取一个或多个时间序列,并检查是否有任何序列匹配阈值条件。

设置告警策略

即达到某个阈值后触发告警

is above:大于

is below:小于

is within range:在某个区间内

is outside range:在某个区间外

Input:数据来源

设置告警评估

设置告警内容

添加告警标签

通常情况下会为每条告警添加告警组、告警等级标签。方便alertmanager根据不同的告警组和标签,通过不同的告警媒介实现告警分组分级通知。

查看Alertmanager记录

告警规则配置(Prometheus)

Prometheus主要侧重服务可用性与性能监控,主要从os、kafka、logstash、Elasticsearch几个方面监控,强烈推荐大家访问https://samber.github.io/awesome-prometheus-alerts/,上面有上百条告警规则,直接抄作业即可。

添加告警规则

我们先添加4条测试告警,用于演示测试,大家可根据需求添加其他告警规则。

[root@es-master prometheus]# vim rules.yaml
groups:
- name: node
  rules:
  - alert: OsNodeStatusIsDown
    expr: up{job="node_exporter"} == 0
    for: 2m
    labels:
      severity: warning
    annotations:
      summary: "node {{ $labels.instance }} down"
      description: "{{$labels.instance}} OS down more than 5 minutes"
- name: prometheus
  rules: 
  - alert: PrometheusTargetMissing
    expr: up == 0
    for: 2m
    labels:
      severity: warning
    annotations:
      summary: "Prometheus target missing"
      description: "Prometheus {{ $labels.job }} target missing"
- name: elasticsearch
  rules:
  - alert: ElasticsearchHealthyNodes
    expr: elasticsearch_cluster_health_number_of_nodes < 7
    for: 2m
    labels:
      severity: danger
    annotations:
      summary: Elasticsearch Healthy Nodes (instance {{ $labels.instance }})
      description: "Missing node in Elasticsearch cluster VALUE = {{ $value }}"
- name: Kafka
  rules:
  - alert: KafkaBrokerNotReady
    expr: kafka_brokers < 3
    for: 2m
    labels:
      severity: danger
    annotations:
      summary: Kafka Healthy Nodes (instance {{ $labels.instance }})
      description: "Missing node in Kafka cluster VALUE = {{ $value }}"
[root@es-master prometheus]# docker cp rules.yaml prometheus:/etc/prometheus/
[root@es-master prometheus]# docker restart prometheus

Prometheus查看告警规则

重启Prometheus后,查看alerts页面,已加载四条告警规则,且全部处于inactive状态。

故障模拟

我们将hot1节点es服务停止,模拟节点宕机导致服务异常停止运行状况。

[root@es-hot1 ~]# systemctl stop elasticsearch

查看Alertmanager记录

参考文档

node exporter:https://github.com/prometheus/node_exporter

logstash exporter:https://github.com/kuskoman/logstash-exporter

kafka Exporter:https://github.com/danielqsj/kafka_exporter

es exporter:https://github.com/prometheus-community/elasticsearch_exporter

Prometheus告警规则参考:https://samber.github.io/awesome-prometheus-alerts/

grafana告警配置:https://grafana.com/docs/grafana/latest/alerting/fundamentals/alert-rules/

相关推荐

3分钟让你的项目支持AI问答模块,完全开源!

hello,大家好,我是徐小夕。之前和大家分享了很多可视化,零代码和前端工程化的最佳实践,今天继续分享一下最近开源的Next-Admin的最新更新。最近对这个项目做了一些优化,并集成了大家比较关注...

干货|程序员的副业挂,12个平台分享

1、D2adminD2Admin是一个完全开源免费的企业中后台产品前端集成方案,使用最新的前端技术栈,小于60kb的本地首屏js加载,已经做好大部分项目前期准备工作,并且带有大量示例代码,助...

Github标星超200K,这10个可视化面板你知道几个

在Github上有很多开源免费的后台控制面板可以选择,但是哪些才是最好、最受欢迎的可视化控制面板呢?今天就和大家推荐Github上10个好看又流行的可视化面板:1.AdminLTEAdminLTE是...

开箱即用的炫酷中后台前端开源框架第二篇

#头条创作挑战赛#1、SoybeanAdmin(1)介绍:SoybeanAdmin是一个基于Vue3、Vite3、TypeScript、NaiveUI、Pinia和UnoCSS的清新优...

搭建React+AntDeign的开发环境和框架

搭建React+AntDeign的开发环境和框架随着前端技术的不断发展,React和AntDesign已经成为越来越多Web应用程序的首选开发框架。React是一个用于构建用户界面的JavaScrip...

基于.NET 5实现的开源通用权限管理平台

??大家好,我是为广大程序员兄弟操碎了心的小编,每天推荐一个小工具/源码,装满你的收藏夹,每天分享一个小技巧,让你轻松节省开发效率,实现不加班不熬夜不掉头发,是我的目标!??今天小编推荐一款基于.NE...

StreamPark - 大数据流计算引擎

使用Docker完成StreamPark的部署??1.基于h2和docker-compose进行StreamPark部署wgethttps://raw.githubusercontent.com/a...

教你使用UmiJS框架开发React

1、什么是Umi.js?umi,中文可发音为乌米,是一个可插拔的企业级react应用框架。你可以将它简单地理解为一个专注性能的类next.js前端框架,并通过约定、自动生成和解析代码等方式来辅助...

简单在线流程图工具在用例设计中的运用

敏捷模式下,测试团队的用例逐渐简化以适应快速的发版节奏,大家很早就开始运用思维导图工具比如xmind来编写测试方法、测试点。如今不少已经不少利用开源的思维导图组件(如百度脑图...)来构建测试测试...

【开源分享】神奇的大数据实时平台框架,让Flink&amp;Spark开发更简单

这是一个神奇的框架,让Flink|Spark开发更简单,一站式大数据实时平台!他就是StreamX!什么是StreamX大数据技术如今发展的如火如荼,已经呈现百花齐放欣欣向荣的景象,实时处理流域...

聊聊规则引擎的调研及实现全过程

摘要本期主要以规则引擎业务实现为例,陈述在陌生业务前如何进行业务深入、调研、技术选型、设计及实现全过程分析,如果你对规则引擎不感冒、也可以从中了解一些抽象实现过程。诉求从硬件采集到的数据提供的形式多种...

【开源推荐】Diboot 2.0.5 发布,自动化开发助理

一、前言Diboot2.0.5版本已于近日发布,在此次发布中,我们新增了file-starter组件,完善了iam-starter组件,对core核心进行了相关优化,让devtools也支持对IAM...

微软推出Copilot Actions,使用人工智能自动执行重复性任务

IT之家11月19日消息,微软在今天举办的Ignite大会上宣布了一系列新功能,旨在进一步提升Microsoft365Copilot的智能化水平。其中最引人注目的是Copilot...

Electron 使用Selenium和WebDriver

本节我们来学习如何在Electron下使用Selenium和WebDriver。SeleniumSelenium是ThoughtWorks提供的一个强大的基于浏览器的开源自动化测试工具...

Quick &#39;n Easy Web Builder 11.1.0设计和构建功能齐全的网页的工具

一个实用而有效的应用程序,能够让您轻松构建、创建和设计个人的HTML网站。Quick'nEasyWebBuilder是一款全面且轻巧的软件,为用户提供了一种简单的方式来创建、编辑...