filebeat

ELK + filebeat集群部署

China☆狼群 提交于 2019-12-06 21:08:59
ELK + filebeat集群部署 一、ELK简介 1. Elasticsearch Elasticsearch是一个实时的分布式搜索分析引擎, 它能让你以一个之前从未有过的速度和规模,去探索你的数据。它被用作全文检索、结构化搜索、分析以及这三个功能的组合 2.Logstash Logstash是一款强大的数据处理工具,它可以实现数据传输,格式处理,格式化输出,还有强大的插件功能,常用于日志处理。 3.Kibana kibana是一个开源和免费的工具,它可以为Logstash和ElasticSearch提供的日志分析友好的Web界面,可以帮助您汇总、分析和搜索重要数据日志。 4.ELK版本信息为7.2.1,你可以从官网下,也可以直接从下面地址下载: https://artifacts.elastic.co/downloads/logstash/logstash-7.2.1.tar.gz https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.2.1-linux-x86_64.tar.gz https://artifacts.elastic.co/downloads/kibana/kibana-7.2.1-linux-x86_64.tar.gz 官网地址:https://www.elastic.co

filebeat配置详解

浪子不回头ぞ 提交于 2019-12-06 16:16:15
配置主要是通过yml文件进行的,主要参数如下: (1)字段解释 paths: 指定要监控的日志,目前按照Go语言的glob函数处理。没有对配置目录做递归处理,比如配置的如果是: /var/log/* /*.log 则只会去/var/log目录的所有子目录中寻找以".log"结尾的文件,而不会寻找/var/log目录下以".log"结尾的文件。 encoding: 指定被监控的文件的编码类型,使用plain和utf-8都是可以处理中文日志的。 input_type: 指定文件的输入类型log(默认)或者stdin。 scan_frequency: Filebeat以多快的频率去prospector指定的目录下面检测文件更新(比如是否有新增文件),如果设置为0s,则Filebeat会尽可能快地感知更新(占用的CPU会变高)。默认是10s。 multiline: 适用于日志中每一条日志占据多行的情况,比如各种语言的报错信息调用栈。这个配置的下面包含如下配置: pattern: 多行日志开始的那一行匹配的pattern negate: 是否需要对pattern条件转置使用,不翻转设为true,反转设置为false。 match: 匹配pattern后,与前面(before)还是后面(after)的内容合并为一条日志 max_lines: 合并的最多行数(包含匹配pattern的那一行)

ELK 索引生命周期管理

北城以北 提交于 2019-12-06 12:17:24
kibana 索引配置 管理索引 点击设置 --- Elasticsearch 的 Index management 可以查看 elk 生成的所有索引 (设置,Elasticsearch ,管理) 配置 kibana 的索引匹配 设置,Kibana,索引模式 配置索引生命周期 点击设置 --- Elasticsearch 的 Index Lifecycle Policies 可以配置策略管理索引生命周期 配置索引策略文档地址:https://www.elastic.co/guide/en/elasticsearch/reference/7.1/index-lifecycle-management.html 首先创建 Index Lifecycle Policies 也就官方文档中的四个阶段配置 需要说明的是并不是每个阶段都是必要配置 配置好生命周期策略后,我们需要创建一个模板,将我们现在的输入 index 接管过来,然后将策略应用于这个模板,这就达到了,每次创建的 index 都能应用于这一策略 其实最方便的就是将你创建的索引都以 logstash-* 开头,默认就包含一个名为 logstash 的模板。 查询当前的模板 # 查询所有模板 GET /_template/ #查询其中某一个模板 GET /_template/logstash { "logstash" : {

Elastic Stack安装 - Filebeat

戏子无情 提交于 2019-12-06 08:37:06
环境: OS: Centos 7.6 JDK: 1.8.0_91 下载地址: https://artifacts.elastic.co/downloads/beats/heartbeat/heartbeat-7.4.2-linux-x86_64.tar.gz https://artifacts.elastic.co/downloads/beats/packetbeat/packetbeat-7.4.2-linux-x86_64.tar.gz https://artifacts.elastic.co/downloads/beats/metricbeat/metricbeat-7.4.2-linux-x86_64.tar.gz https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.4.2-linux-x86_64.tar.gz https://artifacts.elastic.co/downloads/logstash/logstash-7.4.2.tar.gz https://artifacts.elastic.co/downloads/kibana/kibana-7.4.2-linux-x86_64.tar.gz https://artifacts.elastic.co/downloads

ELK整合Filebeat监控nginx日志

无人久伴 提交于 2019-12-06 07:57:30
ELK 日志分析 1. 为什么用到 ELK 一般我们需要进行日志分析场景:直接在日志文件中 grep 、 awk 就可以获得自己想要的信息。 但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、 如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中 式日志收集系统,将所有节点上的日志统一收集,管理,访问。 一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题出现时, 大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块,构建一套集中式日志系 统,可以提高定位问题的效率。 一个完整的集中式日志系统,需要包含以下几个主要特点: 收集-能够采集多种来源的日志数据 传输-能够稳定的把日志数据传输到中央系统 存储-如何存储日志数据 分析-可以支持 UI 分析 警告-能够提供错误报告,监控机制 ELK 提供了一整套解决方案,并且都是开源软件,之间互相配 合使用,完美衔接,高效的满足了很多场合的应用。目前主流的一种日志系统。 2.ELK简介 ELK 是三个开源软件的缩写,分别表示: Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了 一个 FileBeat ,它是一个轻量级的日志收集处理工具 (Agent) , Filebeat 占用资源少

ELK学习实验013:ELK的一个完整的配置操作

浪子不回头ぞ 提交于 2019-12-06 05:31:56
前面做了关于ELK组件的各个实验,但是并没有真正的把各个组件结合起来做一个实验,现在使用一个脚本简单的生成日志,模拟生产不断产生日志的效果 一 流程说明 使用脚本产生日志,模拟用户的操作 日志的格式 [INFO] 2019-11-30 18:00:20 [cn.success.dashboard.Main] -DAU|5206|使用优惠卷|2019-11-30 18:20:23 日志的格式时"DAU" + userID + "|" + visit + "|" +date 通过Filebeat读取日志文件的内容,并将内容发送给Logstash,,原因时需要对内容做处理 Logstash接收到内容后,进行处理,如分割操作,然后将内容发送到 Elasticsearch中 Kiana会读取 Elasticsearch中的数据,并且在 Kiana中进行设计 Dashboard,最后进行展示 后面的日志格式,图表,Dashboard都是自定义的 二 编一个日志的脚本 为了方便实验,脚本很简陋,只是一个输入工具,没有什么实际作用 2.1 日志内容如下 #!/bin/bash visit_array=("浏览页面" "评论商品" "加入收藏" "加入购物车" "提交订单" "使用优惠卷" "领取优惠卷" "搜索" "查看订单") visit_number=`head /dev/urandom |

ELK学习实验009:安装kibana的仪表盘

谁说胖子不能爱 提交于 2019-12-06 04:32:57
一 metricbeat仪表盘 1.1 安装metricbeat仪表盘 可以将metricbeat数据在kibana中展示 [root@node4 ~]# cd /usr/local/metricbeat/ [root@node4 metricbeat]# grep -Ev "^$|[#;]" metricbeat.yml metricbeat.config.modules: path: ${path.config}/modules.d/*.yml reload.enabled: false setup.template.settings: index.number_of_shards: 1 index.codec: best_compression setup.kibana: host: "192.168.132.131:5601" output.elasticsearch: hosts: ["192.168.132.131:9200","192.168.132.132:9200","192.168.132.133:9200"] processors: - add_host_metadata: ~ - add_cloud_metadata: ~ 1.2 安装仪表盘数据到kibana [root@node4 metricbeat]# ./metricbeat setup -

ELK not passing metadata from filebeat into logstash

眉间皱痕 提交于 2019-12-05 19:46:00
Installed an ELK server via: https://www.digitalocean.com/community/tutorials/how-to-install-elasticsearch-logstash-and-kibana-elk-stack-on-centos-7 It seems to work except for the filebeat connection; filebeat does not appear to be forwarding anything or at least I can't find anything in the logs to indicate anything is happening. My filebeat configuration is as follows: filebeat: prospectors: - paths: - /var/log/*.log - /var/log/messages - /var/log/secure encoding: utf-8 input_type: log timeout: 30s idle_timeout: 30s registry_file: /var/lib/filebeat/registry output: logstash: hosts: ["my_elk

Filebeat自定义索引 && 多output过滤

僤鯓⒐⒋嵵緔 提交于 2019-12-05 16:20:02
一、目标 1)实现自定义索引 2)不同的input输出到各自对应的索引,nginx的日志输出到index-nginx的索引,zabbix的日志输出到index-zabbix,app的日志输出到index-app(如图1);这样不会弄成大杂烩。 图1: 结果图: 二、配置文件 # 定义app、zabbix、nginx等应用的input类型、以及存放的具体路径 filebeat.inputs: - type: log enabled: true paths: - /var/log/*.log fields: source: app - type: log enabled: true paths: - /var/log/nginx/*.log fields: source: nginx - type: log enabled: true paths: - /var/log/zabbix/*.log fields: source: zabbix filebeat.config.modules: path: ${path.config}/modules.d/*.yml reload.enabled: true setup.template.settings: index.number_of_shards: 1 # 定义kibana的IP:PORT setup.kibana: host:

INFO No non-zero metrics in the last 30s message in filebeat

ε祈祈猫儿з 提交于 2019-12-05 10:46:22
I'm new to ELK and I'm getting issues while running logstash. I ran the logatash as defined in below link https://www.elastic.co/guide/en/logstash/current/advanced-pipeline.html But when run filebeat and logstash, Its show logstash successfully runs at port 9600. In filebeat it gives like this INFO No non-zero metrics in the last 30s Logstash is not getting input from filebeat.Please help.. the filebeat .yml is filebeat.prospectors: - input_type: log paths: - /path/to/file/logstash-tutorial.log output.logstash: hosts: ["localhost:5043"] and I ran this command sudo ./filebeat -e -c filebeat.yml