kibana

阿里云ECS上使用docker搭建filebeat+kafka集群+zookeep集群+logstash+elasticsearch集群+kibana实现跨主机日志收集系统【五】

不问归期 提交于 2020-03-07 02:50:34
该日志收集系统,是用来收集基于springCloud分布式系统的生产环境。为了方便数据统计和分析,我将日志生成的格式,转化为JSON格式。 具体如何生成,稍后另写一篇文章介绍。 线上架构流程图: 五、安装kibana 1、创建kibana容器 --------------------------------------安装 kibana---------------------------------------- ### 启动简单版,然后 copy 文件到 宿主机,最后删除该容器 sudo docker run -tid \ --hostname=kibana \ --name=keda-kibana \ -p 15601:5601 \ -v /etc/localtime:/etc/localtime \ -e TZ='Asia/Shanghai' \ -e LANG="en_US.UTF-8" \ kibana:7.4.2 docker cp keda-elasticsearch:/usr/share/kibana/config/ /usr/docker/software/kibana/ docker cp keda-elasticsearch:/usr/share/kibana/data/ /usr/docker/software/kibana/ docker cp keda

Centos 7.3 简便搭建EFK日志分析

混江龙づ霸主 提交于 2020-03-07 01:45:57
EFK 不是一个软件,而是一套解决方案。EFK 是三个开源软件的缩写,Elasticsearch,FileBeat,Kibana。其中 ELasticsearch 负责日志分析和存储,FileBeat 负责日志收集,Kibana 负责界面展示。它们之间互相配合使用,完美衔接,高效的满足了很多场合的应用,是目前主流的一种日志分析系统解决方案。 EFK 和 ELK 只有一个区别, 收集日志的组件由 Logstash 替换成了 FileBeat ,因为 Filebeat 相对于 Logstash 来说有2个好处: 1、侵入低,无需修改 elasticsearch 和 kibana 的配置; 2、性能高,IO 占用率比 logstash 小太多; ELK可参考: https://blog.51cto.com/14227204/2442249 当然 Logstash 相比于 FileBeat 也有一定的优势,比如 Logstash 对于日志的格式化处理能力,FileBeat 只是将日志从日志文件中读取出来,当然如果收集的日志本身是有一定格式的,FileBeat 也可以格式化,但是相对于Logstash 来说,效果差很多。 Filebeat 隶属于 Beats。目前 Beats 包含六种工具: Packetbeat(搜集网络流量数据) Metricbeat(搜集系统、进程和文件系统级别的

kibana界面汉化

守給你的承諾、 提交于 2020-03-06 18:50:26
方法1 系统:centos6.5 该汉化包默认支持kibana5.x - 6.x任意版本 下载汉化包路径:https://github.com/anbai-inc/Kibana_Hanization/archive/master.zip 解压上传至linux系统 unzip master . zip cd master 在解压路径下 #汉化 执行python main.py Kibana目录 # 启动elasticsearch cd elasticsearch - 6.3 .0 / bin elasticsearch - d # 启动kibana cd kibana - 6.3 .0 - linux - x86_64 / bin kibana 执行后即可汉化成功 浏览器访问 localhost:5601 在/kibana/config/kibana.yml 中修改, 添加i18n.locale: zh-CN 注意, 上面冒号: 和 zhe-CN 之间必须有个空格,否则kibana无法启动 。 i18n . locale : zh - CN #在最后面,去掉前面的#号 zh-CN 表示 “中国大陆地区使用的中文” --> “简体中文” 加上之后,先杀掉kibana进程: //杀死kibana进程 ps - ef | grep node 然后重启kibana。 方法2、 上传汉化包

ELK分布式日志平台搭建及其简单应用

柔情痞子 提交于 2020-03-05 23:31:34
文章目录 一、ELK简介 1、认识ELK 2、ELK架构图 3、ELFK架构 ELFK架构图 二、ELK分布式日志平台搭建 搭建流程 1、在相应容器下载所需要软件 2、安装Elasticsearch 3、解决Elasticsearch启动报错 4、安装Kibana 5、安装Logstash 三、ELK收集标准输入日志,并在web界面显示 作为运维人员,其价值不在于部署大量服务,而在于排错及服务性能优化,优化主要是考的是对服务配置及其参数的理解,而排错我们主要是借助日志文件,来完成的,早期我们借助sed、awk、grep三剑客在一般中小企业还是有很大的作用。但是在大企业的集群架构中,三剑客已经略显疲态,日志收集与处理的非常难,而且不方便。于是ELK分布式日志平台就应运而生! 大家可以用三剑客尝试模拟千万级别pv的日志分析,完全就是不可行的!百万级别的pv就已经很吃力了! 一、ELK简介 1、认识ELK ELK并不是一款独立的软件服务,而是三个软件的统称,它们分别是Elasticserach、Logstash、Kibana。ELK主要用于对大量服务器的各种日志进行集中化管理,同时可以对日志进行分析。 Elasticsearch是基于JAVA语言开发的,是分布式存储、搜索引擎,底层是使用lucene检索机制,主要是用于集中化管理日志、对日志内容进行分析和统计,实时、快速展示结果

kibana安装及其配置

馋奶兔 提交于 2020-03-05 18:24:02
kibana安装及其配置 1、下载 https://artifacts.elastic.co/downloads/kibana/kibana-5.4.3-x86_64.rpm 2、安装、修改配置 yum install -y kibana-5.4.3-x86_64.rpm grep "^[a-z]" /etc/kibana/kibana.yml server.port: 5601 server.host: "10.1.2.189" elasticsearch.url: " http://10.1.2.184:9200 " 3、访问 10.1.2.189:5601 查看配置状态 http://10.1.2.189:5601/status 4、配置正则匹配 在控制台的Management菜单配置如下正则匹配: 5、收集系统日志 1)先修改配置文件 vim /etc/logstash/conf.d/system.conf input { file { path => "/var/log/messages" type => "systemlog" start_position => "beginning" stat_interval => "2" } } output { elasticsearch { hosts => ["10.1.2.184:9200"] index =>

docker 安装 elasticsearch

老子叫甜甜 提交于 2020-03-05 13:50:14
1. pull 镜像命令如下: docker pull elasticsearch:7.2.0 2. 启动es,命令如下: docker run --name elasticsearch -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" -d elasticsearch:7.2.0 3. 检查es是否安装完成,游览器打开本机ip地址 加端口9200 http: //localhost :9200 4. 修改配置,解决跨域问题,进入容器 找到elasticsearch.yml 添加 http.cors.enabled: true http.cors.allow-origin: "*" 文件命令如下: docker exec -it elasticsearch /bin/bash cd /usr/share/elasticsearch/config/ vi elasticsearch.yml 然后退出 esc 加冒号:输入wq 保存 输入exit 退出容器 修改配置后重启容器即可 docker restart elasticsearch 5. 安装ik分词器 命令如下 cd /usr/share/elasticsearch/plugins/ elasticsearch-plugin install https: /

从ELK到EFK

冷暖自知 提交于 2020-03-05 12:49:02
背景 作为中国最大的在线教育站点,目前沪江日志服务的用户包含沪江网校,交易,金融,CCtalk(直播平台) 等多个部门的多个产品的日志搜索分析业务,每日产生的各类日志有好十几种,每天处理约10亿条(1TB)日志,热数据保留最近7天数据,冷数据永久保存。 为什么做日志系统 首先,什么是日志? 日志就是程序产生的,遵循一定格式(通常包含时间戳)的文本数据 通常日志由服务器生成,输出到不同的文件中,一般会有系统日志、 应用日志、安全日志。这些日志分散地存储在不同的机器上。 通常当系统发生故障时,工程师需要登录到各个服务器上,使用 grep / sed / awk 等 Linux 脚本工具去日志里查找故障原因。在没有日志系统的情况下,首先需要定位处理请求的服务器,如果这台服务器部署了多个实例,则需要去每个应用实例的日志目录下去找日志文件。每个应用实例还会设置日志滚动策略(如:每天生成一个文件),还有日志压缩归档策略等。 这样一系列流程下来,对于我们排查故障以及及时找到故障原因,造成了比较大的麻烦。因此,如果我们能把这些日志集中管理,并提供集中检索功能,不仅可以提高诊断的效率,同时对系统情况有个全面的理解,避免事后救火的被动。 我认为,日志数据在以下几方面具有非常重要的作用: 数据查找:通过检索日志信息,定位相应的 bug ,找出解决方案 服务诊断:通过对日志信息进行统计、分析

Windows环境利用Elasticsearch+Kibana+Logstash搭建搜索引擎并实现实时同步MySQL数据,超详细步骤

前提是你 提交于 2020-03-05 11:56:26
背景:博主在做的一个项目是wamp环境下的电商平台,其搜索方式为sql查询,效率低下,准确率也非常感人,所以就尝试着在Windows环境下搭建一套搜索引擎,经过多方查阅,发现Elasticsearch(简称ES)是一个比较好的搜索引擎,也支持JDBC与MYSQL对接,并可以利用RESTful API CURL方式提供搜索服务,独立性强,扩展性好,于是就决定用它来做开发了。 Step 1:Windows下的JAVA环境配置 首先:下载JDK。 然后,按照自己的系统环境安装JDK,网上很多教程,这里就略过了。顺便说一句Elasticsearch至少需要java8,官方建议高于1.8.0_131。这里也不建议安装java10,不然你有可能会遇到这样的bug。 Unrecognized VM option 'UseParNewGC' Error: Could not create the Java Virtual Machine. Error: A fatal exception has occurred. Program will exit. 博主装的是jdk-8u181-windows-x64.exe。 安装的时候还有两个坑需要数一下,第一,不要安装JRE,不然它会覆盖掉tools.jar。第二,jdk不要一路点下去,要提前建立个文件夹,要求路径里不能有中文,不能有空格

ELK之kibana的web报错[request] Data too large, data for [<agg [2]>] would be larger than limit of

夙愿已清 提交于 2020-03-04 23:56:10
http://blog.51cto.com/11819159/1926411 ELK架构:elasticsearch+kibana+filebeat 版本信息: elasticsearch 5.2.1 kibana 5.2.1 filebeat 6.0.0 (预览版) 今天在进行ELK测试的时候,在kibana上面discover无论那个index,发现均会报错: [request] Data too large, data for [<agg [2]>] would be larger than limit of 并且在elasticsearch的日志可以看到: org.elasticsearch.common.breaker.CircuitBreakingException: [request] Data too large, data for [<agg [2]>] would be larger than limit of [1283260416/1.1gb] 根据错误信息在Google的帮助下,可以比较明显的获取得到是由于内存不够的原因导致,但是具体是因为什么原因暂时还不是很清楚。并且网上大部分出现类似的错误都是清楚缓存: curl -XPUT ' http://localhost:9200/_cache/clear' 在server上面我执行的上诉语句之后

ELK 7.6分析 Nginx 日志 并启用x-pack权限认证

寵の児 提交于 2020-03-04 19:01:01
安装之前先附上Kibana配置效果图 Nginx 服务器日志的log_format格式如下: log_format main_cookie '$remote_addr\t$host\t$time_local\t$status\t$request_method\t$uri\t$query_string\t$body_bytes_sent\t$http_referer\t$http_user_ag ent\t$bytes_sent\t$request_time\t$upstream_response_time\t$aoji_uuid\t$aoji_session_uuid'; 软件包如下: 1、elasticsearch 7.6 安装及配置 elasticsearch-7.6.0-linux-x86_64.tar.gz 解压到 /data/ 目录 tar xf elasticsearch-7.6.0-linux-x86_64.tar.gz && mv elasticsearch-7.6.0 /data/ 配置文件所在目录:/data/elasticsearch-7.6.0/config 修改配置文件elasticsearch.yml node.name: es-1 network.host: 172.31.0.14 http.port: 9200 xpack.security