logstash

ELK windows下部署测试

半城伤御伤魂 提交于 2019-12-30 02:23:09
操作系统 win7 (当时想在linux下部署,虚拟内存过小,转而在windows下) 版本说明 elasticsearch-6.6.2 (elasticsearch-head-master插件) logstash-6.6.2 kibana-6.6.2-windows-x86_64 流程(最简单流程如下,后期可以让logstash 存在kafka redis中) logstash采集日志------->elasticsearch中<--------kibana读取数据在展显。 部署 本次测试为单机部署,主要目地测试功能的使用。本次下载的安装包为二进制 Elasticsearch是java程序,而且要跑在jdk1.8版本以上 安装Elasticsearch 修改Elasticsearch配置文件 D:\install\elk\elasticsearch-6.6.2\config\elasticsearch.yml cluster.name: mrice #配置集群名,两台服务器名保持一致 node.name: xgwang # 配置单一节点名称,每个节点唯一标识 path.data: D:\install\elk\elasticsearch-6.6.2\data # data存储路径 path.logs: D:\install\elk\elasticsearch-6.6.2\logs

Logging from Java app to ELK without need for parsing logs

心不动则不痛 提交于 2019-12-30 00:33:26
问题 I want to send logs from a Java app to ElasticSearch, and the conventional approach seems to be to set up Logstash on the server running the app, and have logstash parse the log files (with regex...!) and load them into ElasticSearch. Is there a reason it's done this way, rather than just setting up log4J (or logback) to log things in the desired format directly into a log collector that can then be shipped to ElasticSearch asynchronously? It seems crazy to me to have to fiddle with grok

filebeat安装

自古美人都是妖i 提交于 2019-12-29 21:56:14
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 安装 sudo yum install filebeat 启动服务 sudo chkconfig --add filebeat systemctl start filebeat systemctl status filebeat 收集日志 先以收集docker日志为例,简单来介绍一下filebeat的配置文件该如何编写。具体内容如下: [root @localhost ~]# grep "^\s*[^# \t].*$" /etc/filebeat/filebeat.yml filebeat: prospectors: - input_type: log paths: - /data/logs/nginx/*.log input_type: log document_type: nginx close_inactive: 1m scan_frequency: 5s fields: nginx_id: web-nodejs fields_under_root: true close_removed: true tail_files: true tags: 'web-nginx' spool_size: 1024 idle_timeout: 5s registry_file: /var/lib/filebeat

logstash、elasticsearch、kibana搭建日志平台

China☆狼群 提交于 2019-12-29 21:39:43
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 1、下载logstash a、官方下载地址: https://www.elastic.co/downloads/logstash b、解压:tar -xzvf logstash-5.1.1.tar.gz c、设置用户测试的配置文件:vim logstatsh_test.conf,编辑内容如下: input { stdin { } } output { stdout { codec => rubydebug {} } } d、运行logstash测试:bin/logstash -f logstatsh_test.conf,运行成功界面如下: e、logstash和elasticsearch整合:可以直接命令行启动如下 bin/logstash -e 'input{stdin{}}output{elasticsearch {hosts => "localhost:9200" index => "logstash_test"} stdout{codec=>rubydebug}}' 或者对logstatsh_test.conf进行修改如下 input{ stdin{ } } output{ elasticsearch { hosts => "localhost:9200" index => "logstash_test

logstash 离线插件制作

梦想的初衷 提交于 2019-12-29 21:36:32
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 需求:正式环境没有外网 且logstash不自带logstash-input-mongodb插件 插件查看 sh logstash-plugin list 1.测试环境的安装包下面 /usr/share/logstash-6.2.3/bin/logstash-plugin prepare-offline-pack --overwrite --output logstash-input-mongodb-6.2.3.zip logstash-input-mongodb 打包成zip文件 2.上传到有外网的正式环境 scp到目标机器的安装的bin目录下 3.用本地文件的方式执行插件安装 sh logstash-plugin install file:///usr/share/logstash/bin/logstash-input-mongodb-6.2.3.zip 来源: oschina 链接: https://my.oschina.net/u/1443466/blog/3016130

用logstash,elasticSearch,kibana实现数据收集和统计分析工作

夙愿已清 提交于 2019-12-29 21:24:11
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 世界上的软件80%是运行在内网的,为了使得运行在客户端的软件有良好的体验,并且得到有用的数据,我们需要对这些系统产生的数据,进行统计和分析,这个过程通常包括数据采集,清洗,建模,分析,报表等。接下来在本篇文章中,将会构建一个基于logstash,elasticSearch,kibana的一套数据收集分析的系统 一、框架概要 logstash实时的从业务日志中数据数据(可以进行响应的过滤),然后把数据输入到redis中,redis只做消息队列不对消息做处理和存储,然后redis会把数据转给elasticSearch,elasticSearch会对数据做存储,索引(基于Lunce),再kibana中建立对elasticSearch的链接,实时的抓取索索引后的数据,这样数据就可以实时的进行展示,通过一些数据组装,查询条件,得到我们想要的结果(可以通过各种方式例如图表,表格,折线图等显示) 接下来的第二章节讲述所需软件以及安装 二、所需软件 Redis(https://www.elastic.co/) kibana(https://download.elastic.co/kibana/kibana/kibana-4.1.3-linux-x64.tar.gz) logstash(https://download

logstash安装

倖福魔咒の 提交于 2019-12-29 21:16:42
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 修改logstash 文件夹下Gemfile文件 将source改为:https://gems.ruby-china.org 进入bin目录 执行logstash-plugin install logstash-input-jdbc 出现如下信息 Validating logstash-input-jdbc Installing logstash-input-jdbc Installation successful 表示安装成功 在config目录中新建mysql目录,放入mysql-connector-java-5.1.30.jar包 在config目录中新建jdbc.sql文件 加入如下内容,就可将person表的数据同步到logstash中显示 SELECT * from person 将D:\tools\logstash-single\config文件夹里面的logstash-sample.conf改成logstash.conf文件 改成如下配置: input { jdbc { # mysql jdbc connection string to our backup databse jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/test"

analyzed or not_analyzed, what to choose

…衆ロ難τιáo~ 提交于 2019-12-29 07:35:08
问题 I'm using only kibana to search ElasticSearch and i have several fields that can only take a few values (worst case, servername, 30 different values). I do understand what analyze do to bigger, more complex fields like this, but the small and simple ones i fail to understand the advance/disadvantage of anaylyzed/not_analyzed fields. So what are the benefits of using analyzed and not_analyzed for a "limited set of values" field (example. servername: server[0-9]* , no special characters to

logstash服务启动脚本

被刻印的时光 ゝ 提交于 2019-12-29 07:07:18
logstash服务启动脚本 最近在弄ELK,发现logstash没有sysv类型的服务启动脚本,于是按照网上一个老外提供的模板自己进行修改 #添加用户 useradd logstash -M -s /sbin/nologin mkdir /var/log/logstash/ chown -R logstash:logstash /var/log/logstash/ chown -R logstash:logstash /usr/local/logstash-2.0.0/ vi /etc/init.d/logstash #!/bin/sh # Init script for logstash # Maintained by Elasticsearch # Generated by pleaserun. # Implemented based on LSB Core 3.1: # * Sections: 20.2, 20.3 # ### BEGIN INIT INFO # Provides: logstash # Required-Start: $remote_fs $syslog # Required-Stop: $remote_fs $syslog # Default-Start: 2 3 4 5 # Default-Stop: 0 1 6 # Short-Description

日志收集-Elk6

百般思念 提交于 2019-12-28 11:17:08
一:前言 ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集日志后传输给Logstash,官方也推荐此工具。 Elasticsearch是个开源分布式搜索引擎,提供 搜集、分析、存储数据 三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。 Logstash 主要是用来日志的 搜集、分析、过滤日志 的工具,支持大量的数据获取方式。一般工作方式为c/s架构,client端安装在需要收集日志的主机上,server端负责将收到的各节点日志进行过滤、修改等操作在一并发往elasticsearch上去。 Kibana 也是一个开源和免费的工具,Kibana可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面 ,可以帮助汇总、分析和搜索重要数据日志。 Filebeat隶属于Beats。目前Beats包含四种工具: Packetbeat(搜集网络流量数据) Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据) Filebeat(搜集文件数据)