grafana

数据可视化工具

三世轮回 提交于 2019-12-05 14:40:41
1. Superset Superset是由Airbnb(知名在线房屋短租公司)开源BI数据分析与可视化平台(曾用名Caravel、Panoramix),该工具主要特点是可自助分析、自定义仪表盘、分析结果可视化(导出)、用户/角色权限控制,还集成了一个SQL编辑器,可以进行SQL编辑查询等,原来是用于支持Druid的可视化分析,后面发展为支持很多种关系数据库及大数据计算框架,如:mysql, oracle, Postgres, Presto, sqlite, Redshift, Impala, SparkSQL, Greenplum, MSSQL. Superset的安装过程及使用,官网文档有详细的介绍,见: http://superset.apache.org/installation.html 官网说明对Windows系统当前没有官方支持,不过实际上是可以安装成功的, 如果是windows下的安装的话,要用 Python 安装。安装过程可参考: https://www.cnblogs.com/wt869054461/p/11653563.html 2. Kibana Kibana是一个开源的分析和可视化平台( https://www.elastic.co/products/kibana ),旨在与Elasticsearch协同工作。使用Kibana搜索

Prometheus监控学习笔记之Prometheus查询无数据或者Grafana不显示数据的诡异问题

僤鯓⒐⒋嵵緔 提交于 2019-12-05 14:25:57
0x00 概述 Prometheus和Grafana部署完成后,网络正常,配置文件正常,抓取agent运行正常,使用curl命令获取监控端口数据正常,甚至Prometheus内的targets列表内都是全绿,Grafana数据源配置也是全绿; 但是Prometheus查询界面(在Windows的浏览器上)无法查询出数据,Grafan展示页面(在Windows的浏览器上)也不显示相关的监控曲线和数据。。。。。。 prometheus搜索指标显示No datapoints found。。。或者Grafana上显示都是N/A。。。 0x01 排查与异常 排查Prometheus agent运行状态, Prometheus Server运行状态, Grafana Sever运行状态,一切正常,网络正常,curl获取数据正常; 结果发现是用来打开Prometheus web界面和Grafana web界面的Windows机器上的时间是西五区,并不是东八区。。。。。。 将该Windows机器上的时间调整为东八区后,Prometheus web的查询和Grafana web展示一切恢复正常 0x02 总结 Prometheus监控各个节点对时间要求严格,在部署服务之前务必将所有机器的时间进行同步,包括用来展示和查询的windows机器。 相关请查看该issue https://github

20款GitHub上优秀的Go开源项目

半城伤御伤魂 提交于 2019-12-05 12:28:27
docker 无人不知的虚拟华平台,开源的应用容器引擎,借助该引擎,开发者可以打包他们的应用,移植到任何平台上。 https://github.com/docker/docker 38154 stars 11393 forks kubernetes Google出品,用于调度和管理docker的开源容器管理系统,利用他,可以方便的管理你的docker实例,哪怕非常多,也是目前最流行的docker管理系统。 https://github.com/kubernetes/kubernetes 19513 stars 6540 forks awesome-go 这不是一个go项目,他是一个学习go的资料网站,属于著名的awesome系列,里面关于go的资源非常详细。 https://github.com/avelino/awesome-go 17182 stars 2154 forks gogs 一款基于git的代码托管系统,类似于github和gitlab,不过其小巧易用,功能强大,部署方便,也有不少用户在使用。 https://github.com/gogits/gogs 17004 stars 1887 forks syncthing 开源的文件同步系统,它使用了其独有的对等自由块交换协议,速度很快,据说可以替换BitTorrent Sync。 https://github.com

自定义监控项及告警升级

妖精的绣舞 提交于 2019-12-05 11:11:45
1.详细讲解自定义监控 1.认识Template OS Linux 模块的所有监控项都是干什么的 2.自定义一个监控项 ( 创建监控项中的所有选项 ) PS:映射值也可写存活于非存活 克隆:基于当前的监控项进行克隆,修改对应的键值即可 3.历史保留如何计算? ( 数据 ) days*(items/refresh rate)*24*3600*bytes items:监控项数量。 days:保留历史数据的天数。 refresh rate:监控项的更新间隔。 bytes:保留单个值所需要占用的字节数,依赖于数据库引擎,通常为 ~90 字节。 90*(200/60)*24*3600 ~ 24MB * 200主机 = 5G 4.趋势保留如何计算? ( 图形 ) days*(items/3600)*24*3600*bytes items:监控项数量。 days:保留历史数据的天数。 bytes:保留单个趋势数据所需要占用的字节数,依赖于数据库引擎,通常为 ~90 字节。 365*(200/3600)*24*3600 ~ 2MB * 200主机 = 500MB 5.事件如何计算? days*events*24*3600*bytes events:每秒产生的事件数量。假设最糟糕的情况下,每秒产生 1 个事件。 days:保留历史数据的天数。 bytes:保留单个趋势数据所需的字节数

基于腾讯云监控 API 的 Grafana App 插件开发

半世苍凉 提交于 2019-12-05 09:52:42
Tencent Cloud Monitor App Grafana 是一个开源的时序性统计和监控平台,支持例如 elasticsearch、graphite、influxdb 等众多的数据源,并以功能强大的界面编辑器著称,允许您对指标进行查询、可视化展示、设置告警等操作,以及自定义配置仪表盘。 Grafana 已经拥有一个强大的贡献者和插件开发者社区。开发者社区提供了三种类型的插件: Panel Plugin: 针对图形展示的面板插件; Datasource Plugin: 针对数据源的插件; App Plugin: 针对完整应用的插件,通常由 Panel Plugin,Datasource Plugin 以及 Dashboards 模板组成; Tencent Cloud Monitor App 的目录结构 本文主要介绍的是 App Plugin 的开发过程以及相关的代码组织。基于腾讯云云监控 API 的 Tencent Cloud Monitor App 插件( TencentCloud/tencentcloud-monitor-grafana-app ),主要由两部分组成: Datasource Plugin 和 Dashboards 模板组成,代码的目录结构如下: . ├── CHANGELOG.md ├── LICENSE ├── README.md ├── dist //

一文看懂 K8s 日志系统设计和实践

扶醉桌前 提交于 2019-12-05 02:24:08
上一篇 中我们介绍了为什么需要一个日志系统、为什么云原生下的日志系统如此重要以及云原生下日志系统的建设难点,相信DevOps、SRE、运维等同学看了是深有体会的。本篇文章单刀直入,会直接跟大家分享一下如何在云原生的场景下搭建一个灵活、功能强大、可靠、可扩容的日志系统。 需求驱动架构设计 技术架构,是将产品需求转变为技术实现的过程。对于所有的架构师而言,能够将产品需求分析透彻是非常基本也是非常重要的一点。很多系统刚建成没多久就要被推翻,最根本的原因还是没有解决好产品真正的需求。 我所在的日志服务团队在日志这块有近10年的经验,几乎服务阿里内部所有的团队,涉及电商、支付、物流、云计算、游戏、即时通讯、IoT等领域,多年来的产品功能的优化和迭代都是基于各个团队的日志需求变化。 有幸我们最近几年在阿里云上实现了产品化,服务了数以万计的企业用户,包括国内各大直播类、短视频、新闻媒体、游戏等行业Top1互联网客户。产品功能从服务一个公司到服务上万家公司会有质的差别,上云促使我们更加深入的去思考:究竟哪些功能是日志这个平台需要去为用户去解决的,日志最核心的诉求是什么,如何去满足各行各业、各种不同业务角色的需求... 需求分解与功能设计 上一节中我们分析了公司内各个不同角色对于日志的相关需求,总结起来有以下几点: 支持各种日志格式、数据源的采集,包括非K8s 能够快速的查找/定位问题日志

Docker监控方案(TIG)的研究与实践之Grafana

心已入冬 提交于 2019-12-04 19:26:06
Grafana研究和实践: 介绍: Grafana 是 Graphite 和 InfluxDB 仪表盘和图形编辑器。Grafana 是开源的,功能齐全的度量仪表盘和图形编辑器,支持 Graphite,InfluxDB 和 OpenTSDB。是由javascript开发的纯前端的展示框架。 Grafana 主要特性:灵活丰富的图形化选项;可以混合多种风格;支持白天和夜间模式;多个数据源;Graphite 和 InfluxDB 查询编辑器等等。 下载安装: wget https://grafanarel.s3.amazonaws.com/builds/grafana-3.1.1-1470047149.x86_64.rpm && rpm -ivh grafana-3.1.1-1470047149.x86_64.rpm grafana由于是一个纯前端的框架,因此不需要什么配置,直接启动后就可以访问了。 启动: /etc/init.d/grafana-server restart grafana默认会开启3000端口,成功启动之后就可以通过 http://IP:3000 来访问garfana的界面,之后进行相关的数据源配置以及所需的图标指标配置。 简单使用: 首次打开grafana会提示进行用户认证,默认是admin用户,密码也是admin,首先要做的就是先添加数据源:

grafana与zabbix结合使用监控mysql

懵懂的女人 提交于 2019-12-04 19:25:57
Grafana 是 Graphite 和 InfluxDB 仪表盘和图形编辑器。Grafana 是开源的,功能齐全的度量仪表盘和图形编辑器,支持 Graphite,InfluxDB 和 OpenTSDB 。Grafana 主要特性:灵活丰富的图形化选项;可以混合多种风格;支持白天和夜间模式;多个数据源;Graphite 和 InfluxDB 查询编辑器等等。 注意:Grafana只是一个图形界面,没有专业监控(例如zabbix)丰富的监控功能 grafana演示站点 http://play.grafana.org/ http://blog.csdn.net/stubborn_cow/article/details/50038369 grafana-zabbix插件 来源: oschina 链接: https://my.oschina.net/u/1433006/blog/617590

Calculate percentage in Graphite for groupByNode() results

拥有回忆 提交于 2019-12-04 16:55:06
I have two groups of Graphite series, both in this format. The second group is identical, except that instead of "a.b", it has "x.y" prefix. a.b.ccc.a1.hr a.b.ccc.a2.hr a.b.ccc.a3.hr a.b.ddd.a1.hr a.b.ddd.a4.hr To group by 3rd node I use groupByNode(a.b.*.*.hr,2,"sumSeries") , which gets me two series: ccc and ddd . I would like to divide ccc and ddd series from the first group by corresponding series in the second group. How do I use the result of groupByNode in the map/reduce function? This is possible but tricky, or at least I don't know of an easier way to do it in an extensible way. Note

Monitoring number of consumer for the Kafka topic

浪子不回头ぞ 提交于 2019-12-04 16:05:49
We are using Prometheus and Grafana for monitoring our Kafka cluster. In our application, we use Kafka streams and there is a chance that Kafka stream getting stopped due to exception. We are logging the event setUnCaughtExceptionHandler but, we also need some kind of alerting when the stream stops. What we currently have is, jmx_exporter running as a agent and exposes Kafka metrics through an endpoint and prometheus fetches the metrics from the endpoint. We don't see any kind of metrics which gives the count of active consumers per topic. Are we missing something? Any suggestions on how to