grafana

部署docker swarm集群监控

不想你离开。 提交于 2020-02-12 02:04:22
前提 Docker 前言 现在Docker Swarm已经彻底输给了K8S,但是现在K8S依然很复杂,上手难度较Docker Swarm高,如果是小规模团队且需要容器编排的话,使用Docker Swarm还是适合的。 目前Docker Swarm有一个问题一直没有解决,如果业务需要知道用户的请求IP,则Docker Swarm满足不了要求。目前部署在Docker Swarm内的服务,无法获取到用户的请求IP。 具体可以看看这个ISSUE-> Unable to retrieve user's IP address in docker swarm mode 整体思路 思路整体来说是使用Influxdb Grafana cadvisor,其中cadvisor负责数据的收集,每一台节点都部署一个cadvisor服务,Influxdb负责数据的存储,Grafana负责数据的可视化。 演示环境 主机 IP master(manager) 192.168.1.60 node1(worker) 192.168.1.61 node2(worker) 192.168.1.62 我这里是将master节点当作监控数据存储以及可视化服务的节点作为演示,一般是拿一个worker节点做这样的工作。 初始化Docker Swarm 在master机器上初始化集群,运行 docker swarm init -

Prometheus+grafana搭建jenkins监控

左心房为你撑大大i 提交于 2020-02-08 14:54:56
为了便于监控Jenkins搭建后的执行情况呢,我们搭建一个完整的监控体系,使用的Prometheus监控报警 ,展示用的是grafana。 安装prometheus brew install prometheus 安装grafana brew install grafana 安装后,启动grafana brew services start grafana 启动prometheus,需要有 prometheus.yml,我们创建prometheus文件即可。 global: scrape_interval: 10s scrape_timeout: 10s evaluation_interval: 10m 在jenkins 安装 安装后,需要配置 需要将path改成自己的 name修改。 然后jenkins就可以拿到这个数据,我们在prometheus的配置文件增加下面配置,启动 scrape_configs: - job_name: jenkins metrics_path: /jenkins/prometheus/ scrape_interval: 10s scrape_timeout: 10s static_configs: - targets: ['127.0.0.1:8080'] 启动命令: prometheus --config.file=prometheus.yml

Prometheus监控Jenkins

坚强是说给别人听的谎言 提交于 2020-02-07 14:05:42
目录 1、Jenkins安装插件 2、配置插件 3、Prometheus配置 4、Grafana配置 Jenkins是一个非常好的持续集成工具,本文记录Prometheus对Jenkins进行监控,并通过Grafana展示监控数据的过程 1、Jenkins安装插件 在 Jenkins 上安装插件,使 Jenkins 能够暴露指标给 Prometheus 收集,这个插件名称叫 Prometheus metrics 2、配置插件 安装完成插件后进行配置,“系统管理”——>“系统设置” 设置完成后重启 Jenkins 服务,并且访问 jenkins 的 url 查看指标情况 https://jenkinsurl/prometheus 3、Prometheus配置 修改 Prometheus 的配置文件,新增对 Jenkins 的数据采集,本文中的 Prometheus 和 Jenkins 均部署在 k8s 集群 # vim prometheus-configmap.yaml - job_name: "jenkins" metrics_path: "/prometheus/" scheme: http bearer_token: bearer_token static_configs: - targets: ['172.16.1.110:30009'] 配置完成后重新加载配置文件,并且在

监控主机: node_exporter

大憨熊 提交于 2020-02-06 16:49:00
监控主机: node_exporter 在Prometheus的架构设计中,Prometheus Server并不直接服务监控特定的目标,其主要任务负责数据的收集,存储并且对外提供数据查询支持。因此为了能够能够监控到某些东西,如主机的CPU使用率,我们需要使用到Exporter。Prometheus周期性的从Exporter暴露的HTTP服务地址(通常是/metrics)拉取监控样本数据。 从上面的描述中可以看出Exporter可以是一个相对开放的概念,其可以是一个独立运行的程序独立于监控目标以外,也可以是直接内置在监控目标中。只要能够向Prometheus提供标准格式的监控样本数据即可。 这里为了能够采集到主机的运行指标如CPU, 内存,磁盘等信息。我们可以使用Node Exporter。 Node Exporter同样采用Golang编写,并且不存在任何的第三方依赖,只需要下载,解压即可运行。 运行 node exporter 下载软件包: mkdir -p /usr/local/prometheus/exporter/node cd /usr/local/prometheus/exporter/node curl -s -OL https://github.com/prometheus/node_exporter/releases/download/v0.18.0/node

Make table visualization in Grafana using Prometheus's InfoMetricFamily

早过忘川 提交于 2020-02-06 15:43:05
问题 I have following code: c = InfoMetricFamily("health", "Health Monitoring") c.add_metric(labels=name, value={"name": name, "status": status, "value": value}) that supply Prometheus with following metric: # HELP health_info Health Monitoring # TYPE health_info gauge health_info{name="external",status="danger",value="N\\A"} 1.0 I would like to build table dashboard in Grafana where name , status , value will be columns. How could I do this? 回答1: Since Grafana v4.3, the table panel supports the

InfluxDB+cAdvisor+Grafana容器管理

强颜欢笑 提交于 2020-02-06 15:24:52
InfluxDB InfluxDB是一个分布式时间序列数据库。cAdvisor仅仅显示实时信息,但是不存储监视数据。因此,需要提供实时数据库用于存储cAdvisor组件所提供的监控信息,以便显示除实时信息之外的时序数据。 1.InfluxDB的安装 下载镜像 docker pull tutum/influxdb 创建容器 docker run -di \ -p 8083:8083 \ -p 8086:8086 \ --expose 8099 \ --expose 8099 \ --name influxsrv \ tutum/influxdb 上面,8083端口是web访问端口,8086是数据写入端口。 安装好,浏览器访问192.xxx.xx.xxx:8083 2.使用influxDB 通过query templates下拉选项可以快速使用命令语句。 创建数据库 CREATE DATABASE "cadvisor" 查看所有数据库 SHOW DATABASES 创建用户 CREATE USER "zhangsan" WITH PASSWORD 'password' WITH ALL PRIVILEGES 查看用户 SHOW USERS 用户授权 grant all privileges on cadvisor to zhangsan grant write on cadvisor

Error 1064 in Grafana for making a graph using mysql database

流过昼夜 提交于 2020-02-05 14:00:05
问题 I am using Grafana to make a graph of my data. I have 4 columns. The Time(using variable f), 2 sensor variables (int1 and int2) and ID. But I receive the error: Error 1064: You have an error in your SQL syntax; check the manual that corresponds to your MariaDB server version for the right syntax to use near 'int1 FROM data5 WHERE f BETWEEN FROM_UNIXTIME(1563773333) AND FROM_UNIXTIME(15' at line 3 This is the generated code: SELECT f AS "time", int1 FROM data5 WHERE f BETWEEN FROM_UNIXTIME

Error 1064 in Grafana for making a graph using mysql database

蹲街弑〆低调 提交于 2020-02-05 13:59:54
问题 I am using Grafana to make a graph of my data. I have 4 columns. The Time(using variable f), 2 sensor variables (int1 and int2) and ID. But I receive the error: Error 1064: You have an error in your SQL syntax; check the manual that corresponds to your MariaDB server version for the right syntax to use near 'int1 FROM data5 WHERE f BETWEEN FROM_UNIXTIME(1563773333) AND FROM_UNIXTIME(15' at line 3 This is the generated code: SELECT f AS "time", int1 FROM data5 WHERE f BETWEEN FROM_UNIXTIME

grafana快速入门

て烟熏妆下的殇ゞ 提交于 2020-02-05 07:53:12
入门 本指南将帮助您开始并熟悉Grafana。它假定您有一台正在运行的Grafana服务器,并至少添加了一个数据源。 初学者指南 观看10分钟的初学者指南,以建立仪表板,以快速介绍设置仪表板和面板。 https://www.youtube.com/watch?v=sKNZMtoSHN4&index=7&list=PLDGkOdUX1Ujo3wHw9-z5Vo12YLqXRjzg2 基本概念 阅读基本概念文档,以获得Grafana概念的速成关键课程。 http://docs.grafana.org/guides/basic_concepts 顶部标题 我们开始创建一个新的仪表盘。您可以在仪表盘选择器底部找到新的“仪表板”链接。您现在有一个空白的仪表板。 以上图片显示了仪表板的顶部标题。 侧面菜单切换:这会切换侧面菜单,让您专注于仪表板中显示的数据。侧面菜单提供对与仪表板无关的功能的访问,如用户,组织和数据源。 仪表板下拉列表:此下拉列表显示您当前正在查看的仪表板,并允许您轻松切换到新的仪表板。从这里您还可以创建一个新的仪表板,导入现有仪表板,并管理仪表板的播放列表。 星型仪表板:Star(或取消星号)当前的仪表板。默认情况下,Starred Dashboards会显示在您自己的Home Dashboard上,也是标记您感兴趣的Dashboards的便捷方式。 共享仪表板

14.容器资源需求、资源限制及HeapSter

允我心安 提交于 2020-02-04 12:53:14
一、容器资源需求及资源限制: 1、概念 Requests:资源需求,最低保障。 Limits:资源限额,硬限制。限制容器无论怎么运行都不能超过的资源阈值 一般来讲,requests <= limits CPU:可压缩资源。一颗逻辑CPU,即一核。1=1000,millicores 内存:不可压缩资源。Ei,Pi,Ti,Gi,Mi,Ki ==> 以1024为进制。 2、定义资源需求及限制 资源需求和资源限制都是定义在容器上的。 [root@master ~]# kubectl explain pod.spec.containers.resources 使用方法文档: https://kubernetes.io/docs/concepts/configuration/manage-compute-resources-container/ 测试: [root@master metrics]# kubectl exec pod-metrics-demo top 宿主机内核总数是2核,定义的资源limits是0.5m,所以应该是25%,此处13%,原因未明,可能与宿主机是VMVare虚拟机有关。后续再研究。 查看,CPU的limit是与定义匹配的,但内存未符合预期,可能压测效果不够。 3、服务质量QoS Class 我们对容器分配了资源限制后,k8s会自动分配一个QoS,叫服务质量 QoS