kibana

(二进制)k8s笔记

蹲街弑〆低调 提交于 2020-08-12 11:04:55
前言: 最近在研究k8s集群ELK收集容器里面的日志,部署elk时发现Kibana没有连接到es中,报错信息如下: {"type":"log","@timestamp":"2020-06-30T07:09:33Z","tags":["warning","elasticsearch","admin"],"pid":6,"message":"No living connections"} {"type":"log","@timestamp":"2020-06-30T07:09:36Z","tags":["warning","elasticsearch","data"],"pid":6,"message":"Unable to revive connection: http://elasticsearch-0.elasticsearch.kube-system:9200/"} {"type":"log","@timestamp":"2020-06-30T07:09:36Z","tags":["warning","elasticsearch","data"],"pid":6,"message":"No living connections"} {"type":"log","@timestamp":"2020-06-30T07:09:36Z","tags":["license",

ELK分布式日志收集系统

核能气质少年 提交于 2020-08-11 23:29:49
ELK分布式日志收集系统 一、传统系统日志收集的问题 在传统项目中,如果在生产环境中,有多台不同的服务器集群,如果生产环境需要通过日志定位项目的Bug的话,需要在每台节点上使用传统的命令方式查询,这样效率非常底下。 通常,日志被分散在储存不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志。这样是不是感觉很繁琐和效率低下。当务之急我们使用集中化的日志管理,例如:开源的syslog,将所有服务器上的日志收集汇总。 集中化管理日志后,日志的统计和检索又成为一件比较麻烦的事情,一般我们使用grep、awk和wc等Linux命令能实现检索和统计,但是对于要求更高的查询、排序和统计等要求和庞大的机器数量依然使用这样的方法难免有点力不从心。 二、ELK分布式日志收集系统介绍 ElasticSearch是一个基于Lucene的开源分布式搜索服务器。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是第二流行的企业搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。 Logstash是一个完全开源的工具

如何做一次Elasticsearch技术分享?

╄→尐↘猪︶ㄣ 提交于 2020-08-11 21:02:06
0、问题引出 经群讨论,建议从以下几个方面展开,大家有好的想法,也欢迎留言交流。 1、可视化展示ELK效果 如果条件允许,demo的内容是:通过logstash 同步日志或数据库(oracle、mysql)表的数据到 Elasticsearch,然后通过kibana进行可视化。 1 通过Canvas对数据进行可视化布局与展现,可以实现非常酷炫的大屏展示效果。 2 展示实时数据的数据量。 3 展示你定的几个维度的数据信息。 这么切入的目的:很直观,很明显,很接地气。用到ELK技术栈的内容,有带动性,让参与的同事不犯困且很容易让大家对它产生兴趣。 2、 Elk stack大家族简介 考虑到不同受众关注点不同。结合业务的数据的特点,从输入、中间处理、存储&检索、分析等全数据流环节展开。 2.1 输入 Elastic 支持的输入包含但不限于: 日志类数据:类log4j.log,apache log等,可借助 beats或logstash同步 关系型数据库:mysql oracle pgsql等 非关系型数据库:mongodb redis等 实时数据流:flink spark kafka hdfs等 大数据:hadoop hdfs等 此处的不同数据的导入,Lostash有丰富的input/output插件,支持N多不同数据源接入,估计同事也会眼前一亮。 2.2 中间处理ETL

干货 | Logstash Grok数据结构化ETL实战

狂风中的少年 提交于 2020-08-11 15:56:55
0、题记 日志分析是ELK最常用、最核心业务场景之一。 如果你正在使用Elastic Stack并且正尝试将自定义Logstash日志映射到Elasticsearch,那么这篇文章适合你。 Logstash写入ES之前的中间数据处理过程一般叫做:数据ETL或者数据清洗。 本文重点介绍数据清洗环节的非结构数据转化为结构化数据的——Grok实现。 1、认知前提 老生常谈,夯实基础认知。 ELK Stack是三个开源项目的首字母缩写:Elasticsearch,Logstash和Kibana。 它们可以共同构成一个日志管理平台。 Elasticsearch:搜索和分析引擎。 Logstash:服务器端数据处理管道,它同时从多个源中提取数据,对其进行转换,然后将其发送到Elasticsearch存储。 Kibana:图表和图形来可视化数据ES中数据。 Beats后来出现,是一个轻量级的数据传输带(data shipper)。 Beats的引入将ELK Stack转换为Elastic Stack。 2、啥是Grok? Grok是Logstash中的过滤器,用于将非结构化数据解析为结构化和可查询的数据。 它位于正则表达式之上,并使用文本模式匹配日志文件中的行。 下文分析你会看到,使用Grok在有效的日志管理方面大有裨益! 一图胜千言。 如果没有Grok

Elasticsearch kibana官方基础本地实践

孤人 提交于 2020-08-11 14:06:10
官方资源链接 https://www.elastic.co/cn/start elasticsearch官方基础视频教程 https://www.elastic.co/cn/webinars/getting-started-elasticsearch?elektra=startpage kibana官方基础视频教程 https://www.elastic.co/cn/webinars/getting-started-kibana?elektra=startpage 动手实践 当前最新版本 Elasticsearch 7.7.0 运行环境 a.JDK8+ b.系统可用内存>2G c.win7 下载 个人觉得迅雷相对较快 https://artifacts.elastic.co/downloads/kibana/kibana-7.7.0-windows-x86_64.zip https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.7.0-windows-x86_64.zip 解压运行启动服务 ​elasticsearch/ bin elasticsearch.bat #编辑 kibana.yml elasticsearch.hosts: [ " http://localhost:9200 " ]

【最佳实践】Filebeat实现MySQL日志轻量化发送至Elasticsearch

谁说我不能喝 提交于 2020-08-11 14:04:50
在今天的文章中,我们来详细地描述如果使用Filebeat把MySQL的日志信息传输到Elasticsearch中。 环境准备 1、准备 centos7.4版本 ECS 环境 ,关闭 selinux、firewall。 2、准备 阿里云elasticsearch 6.7 版本环境 ,并使用创建的 账号密码登录Kibana 3、安装 Filebeat 版本为 6.7.0 4、安装 MySQL 版本为 5.6.48 安装 MySQL 我们需要通过以下命令,来对 MySQL 进行安装。 # yum install mysql-server # systemctl start mysqld # systemctl status mysqld ####通过mysqladmin设置root密码##### # mysqladmin -u root password "12 来源: oschina 链接: https://my.oschina.net/u/4368015/blog/4296057

Elasticsearch学习笔记

邮差的信 提交于 2020-08-11 09:37:32
许多年前,一个刚结婚的名叫 Shay Banon 的失业开发者,跟着他的妻子去了伦敦,他的妻子在那里学习厨师。 在寻找一个赚钱的工作的时候,为了给他的妻子做一个食谱搜索引擎,他开始使用 Lucene 的一个早期版本。 直接使用 Lucene 是很难的,因此 Shay 开始做一个抽象层,Java 开发者使用它可以很简单的给他们的程序添加搜索功能。 他发布了他的第一个开源项目 Compass。 后来 Shay 获得了一份工作,主要是高性能,分布式环境下的内存数据网格。这个对于高性能,实时,分布式搜索引擎的需求尤为突出, 他决定重写 Compass,把它变为一个独立的服务并取名 Elasticsearch。 第一个公开版本在2010年2月发布,从此以后,Elasticsearch 已经成为了 Github 上最活跃的项目之一,他拥有超过300名 contributors(目前736名 contributors )。 一家公司已经开始围绕 Elasticsearch 提供商业服务,并开发新的特性,但是,Elasticsearch 将永远开源并对所有人可用。 据说,Shay 的妻子还在等着她的食谱搜索引擎…​ Elasticsearch是Java开发的基于 Lucene 的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。

ASP.NET Core使用Elasticsearch记录API请求响应日志实战演练

纵饮孤独 提交于 2020-08-11 08:49:46
原文: ASP.NET Core使用Elasticsearch记录API请求响应日志实战演练 一、ASP.NET Core WebApi如何设计一个日志中间件? ASP.NET Core WebApi一个良好的日志记录内容包含,唯一请求Id(traceId),请求url,请求body内容,响应body内容,执行开始和执行结束时间,总耗时时间等等。通过组合 Docker,ElasticSearch,Kibana,ASP.NET Core 和 Serilog ,您获得了前所未有的便利性和功能,再也没有理由不再将日志记录整合到应用程序中了。。 • 一句话总结今天我们学习到达的目标? 如何在ASP.NET Core使用Elasticsearch和Kibana 来存储和展示我们应用程序的请求详细日志。 ElasticSearch 和 Kibana 改变了这一切。而 Docker 已经使 ElasticSearch 和 Kibana 的启动和运行变得毫不费力。ElasticSearch 和 Kibana 提供的强大功能以及非常高的性能,再加上它是开源的,这真的令人印象非常深刻。 如果对本次分享课程《ASP.NET Core使用Elasticsearch记录请求响应日志实战演练》感兴趣的话,那么请跟着阿笨一起学习吧。 废话不多说,直接上干货,我们不生产干货,我们只是干货的搬运工。 二、ASP

CentOS-Docker安装Elasticsearch(单点)

筅森魡賤 提交于 2020-08-11 00:20:58
下载镜像 $ docker pull elasticsearch:7.6.0 运行镜像 $ docker run --restart=always --name elasticsearch -d -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" elasticsearch:7.6.0 安装kibana $ docker run --restart=unless-stopped --name kibana --link elasticsearch:elasticsearch -d -p 5601:5601 kibana:7.6.0 安装 elasticsearch-head $ docker run --restart=unless-stopped --name es-head --link elasticsearch:elasticsearch -d -p 9100:9100 mobz/elasticsearch-head:5 处理跨域 进入容器内部 $ docker exec -it elasticsearch bash 修改配置文件(追加设置) $ vi config/elasticsearch.yml … http.cors.enabled: true http.cors.allow-origin: "*"

Docker部署ElasticSearch以及使用

做~自己de王妃 提交于 2020-08-10 21:13:39
ElasticSearch笔记 1. ElasticSearch前期 1.1 聊聊ElasticSearch的简介 ​ Elaticsearch,简称为es, es是一个开源的 高扩展的分布式全文检索引擎 ,它可以近乎实时的 存储 、 检索 数据;本身扩展性很好,可以扩展到上百台服务器,处理PB级别(大数据时代)的数据。es也使用Java开发并使用Lucene作为其核心来实现所有索引和搜索的功能,但是它的目的是通过简单的RESTful API来隐藏Lucene的复杂性,从而让全文搜索变得简单。 ​ 据国际权威的数据库产品评测机构DB Engines的统计,在2016年1月,ElasticSearch已超过Solr等,成为排名第一的搜索引擎类应用。 ElasticSearch的小故事 ​ 多年前,一个叫做Shay Banon的刚结婚不久的失业开发者,由于妻子要去伦敦学习厨师,他便跟着也去了。在他找工作的过程中,为了给妻子构建一个食谱的搜索引擎,他开始构建一个早期版本的Lucene。直接基于Lucene工作会比较困难,所以Shay开始抽象Lucene代码以便Java程序员可以在应用中添加搜 索功能。他发布了他的第一个开源项目,叫做“Compass”。 ​ 后来Shay找到一份工作,这份工作处在高性能和内存数据网格的分布式环境中,因此高性能的、实时 的、分布式的搜索引擎也是理所当然需要的