logstash

ELK学习笔记之F5 DNS可视化让DNS运维更安全更高效-F5 ELK可视化方案系列(3)

為{幸葍}努か 提交于 2020-07-28 18:52:37
0x00 概述 此文力求比较详细的解释DNS可视化所能带来的场景意义,无论是运维、还是DNS安全。建议仔细看完下图之后的大篇文字段落,希望能引发您的一些思考。 在“F 5利用Elastic stack(ELK)进行应用数据挖掘系列(2)-DNS ”一文中阐述了通过DNS logging profile进行DNS可视化的一种方法。DNS logging profile本身对解析和响应是发出的两条日志,因此在上篇文章中我们其实用了一些特殊的方法来处理一些我们想要的场景。所以这样的处理方式可能不够灵活,也不够优雅。通过logstash根据Query ID进行日志聚合后再处理也是一种思路,但是日志聚合本身这个动作需要仔细处理以防止聚合出错。同时即便使用了聚合,由于DNS logging profile输出的内容是固定的,因此在灵活性上依旧差那么一些。这篇文章则给大家提供了另一外一种形式的可视化。从通用性角度来说,更建议使用本篇文章中的方法,不受BIGIP DNS(GTM)版本及模块license类型的影响。 0x01 方法思路 iRule通过HSL输出必要的解析日志数据至elk 0x02 Dashboard与可视图分析 在整个dashboard中,划分了这样几个功能区域: 最上面的解析来源地理热力图,可以清晰的看出哪些地方是热点解析区域。热点解析区域,结合DNS TTL参考

日志分析logstash插件-grok详解

非 Y 不嫁゛ 提交于 2020-07-28 18:06:12
一般系统或服务生成的日志都是一大长串。每个字段之间用空格隔开。logstash在获取日志是整个一串获取,如果把日志中每个字段代表的意思分割开来在传给elasticsearch。这样呈现出来的数据更加清晰,而且也能让kibana更方便的绘制图形。 Grok 是 Logstash 最重要的插件。它的主要作用就是将文本格式的字符串,转换成为具体的结构化的数据,配合正则表达式使用。 grok表达式 下面针对Apache日志来分割处理 filter { if [type] == "apache" { grok { match => ["message" => "%{IPORHOST:addre} %{USER:ident} %{USER:auth} \[%{HTTPDATE:timestamp}\] \"%{WORD:http_method} %{NOTSPACE:request} HTTP/%{NUMBER:httpversion}\" %{NUMBER:status} (?:%{NUMBER:bytes}|-) \"(?:%{URI:http_referer}|-)\" \"%{GREEDYDATA:User_Agent}\""] remove_field => ["message"] } date { match => [ "timestamp", "dd/MMM/YYYY:HH:mm

基于ELK Nginx日志分析

纵然是瞬间 提交于 2020-07-28 13:16:04
配置Nginx 日志 Nginx 默认的access 日志为log格式,需要logstash 进行正则匹配和清洗处理,从而极大的增加了logstash的压力 所以我们Nginx 的日志修改为json 格式 。 Nginx access 日志和 Nginx error 日志 http { include /etc/nginx/mime.types; default_type application/octet-stream; log_format json '{"@timestamp":"$time_iso8601",' '"server_addr":"$server_addr",' '"hostname":"$hostname",' '"remote_add":"$remote_addr",' '"request_method":"$request_method",' '"scheme":"$scheme",' '"server_name":"$server_name",' '"http_referer":"$http_referer",' '"request_uri":"$request_uri",' '"args":"$args",' '"body_bytes_sent":$body_bytes_sent,' '"status": $status,' '"request

logstash消费kafka数据,根据ID写入hdfs的对应路径下

匆匆过客 提交于 2020-07-27 15:08:18
开发新需求,需要消费kafka的数据,根据业务主键ID写入到对应的hdfs路径下 最开始实验的logstash为7.4版本,发现和本地的kafka版本不对应,报错信息:broker may not be available,后来查看logstash版本,发现需要使用logstash2.4版本才可以和本地的kafka0.9版本对应 日志的格式为: 2020-06-11 11:02:02.632 -- {"gradeId":"2","role":"STUDENT","userStatus":1,"data":{"publishExamClassId":"47c50966f34b41cf819358d077691cce","examSubmitType":2,"examQuestionCount":41,"questionResultSet":[{"questionId":"xl_a543bbe2ca1e4b8e8029c1148ed34abf_v4","originalQueType":11,"questionResult":"1","questionType":1,"userAnswerContent":"[\"1\"]"},{"questionId":"xl_4367b003c0a14d2390470b89ece9184e_v4","originalQueType":11,

【最佳实践】阿里云Logstash JDBC实现Elasticsearch与关系型数据库保持数据同步

▼魔方 西西 提交于 2020-07-27 10:53:50
整体概述: 阿里云 logstash-input-jdbc 插件是实现阿里云 Elasticsearch 与 RDS 关系型数据库数据同步的关键,本质是通过 Logstash JDBC 输入插件,运行一个循环来定期对 RDS 进行轮询,从而找到在此次循环上次迭代后插入或更改的记录,如让其正确运行,必须满足如下条件: 1、 在将 RDS 中的文档写入 Elasticsearch 时,Elasticsearch 中的 "_id" 字段必须设置为 RDS 中的 "id" 字段。这可在 RDS 记录与 Elasticsearch 文档之间建立一个直接映射关系,如果在 RDS 中更新了某条记录,那么将会在 Elasticsearch 中覆盖整条相关记录。 注意,在 Elasticsearch 中覆盖文档的效率与更新操作的效率一样高,因为从内部原理 来源: oschina 链接: https://my.oschina.net/u/4362740/blog/4288286

58同城 Elasticsearch 应用及平台建设实践

风流意气都作罢 提交于 2020-07-27 08:55:16
导读: Elasticsearch是一个分布式的搜索和分析引擎,可以用于全文检索、结构化检索和分析,并能将这三者结合起来。Elasticsearch基于Lucene开发,现在是使用最广的开源搜索引擎之一。Elasticsearch可以应用于在/离线日志流水、用户标签画像、数据库二级缓存、安全风控行为数据、图数据库索引、监控数据、Wiki文档检索等应用场景。58同城有自己的主搜,而一些内部创新搜索业务和大规模的数据实时OLAP ( On-Line Analytical Processing,联机分析处理 ) 则是使用Elasticsearch。 本次分享的主题为58同城Elasticsearch应用及平台建设实践。主要内容包括: 集群优化治理 典型应用实践 自动化平台建设 后续规划 01 集群优化治理 1. 背景 早期Elasticsearch分布在58内的各个业务部门自主维护,但是随着Elasticsearch自身的功能加强,各业务团队使用Elasticsearch的数量越来越多、使用的业务场景越来越重要,于是由数据库部门对整个公司的Elasticsearch使用进行了收敛管理,在这个过程中数据库部门同学遇到了很多问题和挑战,具体如下:业务使用场景复杂多样;Elasticsearch版本不统一;应用与Elasticsearch数据服务混合部署;缺乏有效监控;服务器硬件型号多样

ELK的安装配置(ELK【elasticsearch、logstash、kibana、node】安装详细步骤及环境配置)

蹲街弑〆低调 提交于 2020-07-26 05:44:18
文章目录 一、ES(elasticsearch)简介 二、ES(elasticsearch)安装前的准备(elk安装包版本要求一致) 三、ELK的安装 四、ES(elasticsearch)的配置 五、Head-master及node的配置 六、使用Head-master对ES进行测试 七、kibana安装,配置和实例 一、ES(elasticsearch)简介 ES是一个基于RESTful web接口并且构建在Apache Lucene之上的开源分布式搜索引擎。 特点是:高可用,高扩展,是一种NOSQL的数据存储工具 二、ES(elasticsearch)安装前的准备(elk安装包版本要求一致) 百度网盘地址 elk相关文件 下载:elasticsearch-6.2.2.tar.gz elasticsearch-head-master.zip kibana-6.2.2-linux-x86_64.tar.gz logstash-6.2.2.tar.gz node-v8.9.1-linux-x64.tar.gz 三、ELK的安装 1.把下载好的安装包,拖拽到/software目录中 2.输入:yum install -y unzip 下载解压缩工具 3.输入:cd /software 进入安装包目录,输入ll可以查看目录中的文件 4.输入:tar -zxvf

Logstash Fork Patterns 中文

╄→尐↘猪︶ㄣ 提交于 2020-07-25 09:57:05
前情提要 1.产品增加了日志字段 ,其中包含中文,相应的fork patterns也需要修改 Patterns # Grok Pattern %{NOTSPACE:resp_msg} # Custom Patterns NOTSPACE \S* 测试工具以及参考链接 a Ruby regular expression editor logstash grok-patterns 来源: oschina 链接: https://my.oschina.net/venn0126/blog/4354770

ELK集群部署

女生的网名这么多〃 提交于 2020-07-24 15:25:07
ELK简介 1.ElasticSearch简称ES,它是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析。它是一个建立在全文搜索引擎 Apache Lucene 基础上的搜索引擎,使用 Java 语言编写。 2.Logstash是一个具有实时传输能力的数据收集引擎,用来进行数据收集(如:读取文本文件)、解析、过滤,并将数据发送给ES。 3.Kibana为 Elasticsearch 提供了分析和可视化的 Web 平台。它可以在 Elasticsearch 的索引中查找,交互数据,并生成各种维度表格、图形。 环境准备 cat /etc/redhat-release CentOS Linux release 7.7.1908 (Core) 角色划分 NODE IP(自己设置) 节点类型 elk-node1 192.168.1.123 数据、主节点(安装elasticsearch、logstash、kabana、filebeat) elk-node2 192.168.1.124 数据节点(安装elasticsearch、filebeat) elk-node3 192.168.1.125 数据节点(安装elasticsearch、filebeat) 安装jdk11 (两种安装方式) ------------------------------二进制安装--------

ELK集群部署

筅森魡賤 提交于 2020-07-24 06:45:42
ELK简介 1.ElasticSearch简称ES,它是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析。它是一个建立在全文搜索引擎 Apache Lucene 基础上的搜索引擎,使用 Java 语言编写。 2.Logstash是一个具有实时传输能力的数据收集引擎,用来进行数据收集(如:读取文本文件)、解析、过滤,并将数据发送给ES。 3.Kibana为 Elasticsearch 提供了分析和可视化的 Web 平台。它可以在 Elasticsearch 的索引中查找,交互数据,并生成各种维度表格、图形。 环境准备 cat /etc/redhat-release CentOS Linux release 7.7.1908 (Core) 角色划分 NODE IP(自己设置) 节点类型 elk-node1 192.168.1.123 数据、主节点(安装elasticsearch、logstash、kabana、filebeat) elk-node2 192.168.1.124 数据节点(安装elasticsearch、filebeat) elk-node3 192.168.1.125 数据节点(安装elasticsearch、filebeat) 安装jdk11 (两种安装方式) ------------------------------二进制安装--------