logstash

ELKStack之极速入门(上)

Deadly 提交于 2020-12-04 01:42:44
#ELKStack之极速入门(上) 链接: https://pan.baidu.com/s/1V2aYpB86ZzxL21Hf-AF1rA 提取码:7izv 复制这段内容后打开百度网盘手机App,操作更方便哦 ##1. EKL介绍 ###1.1 需求背景 一般我们需要进行日志分析场景:直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大的场景中,此方法效率低下,面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理,所有服务器上的日志收集汇总。常见解决思路是建立集中式日志收集系统,将所有节点上的日志统一收集,管理,访问。 一般大型系统是一个分布式部署的架构,不同的服务模块部署在不同的服务器上,问题 出现时,大部分情况需要根据问题暴露的关键信息,定位到具体的服务器和服务模块, 构建一套集中式日志系统,可以提高定位问题的效率。 一个完整的集中式日志系统,需要包含以下几个主要特点: (1)收集-能够采集多种来源的日志数据 (2)传输-能够稳定的把日志数据传输到中央系统 (3)存储-如何存储日志数据 (4)分析-可以支持 UI 分析 (5)警告-能够提供错误报告,监控机制 ELK提供了一整套解决方案,并且都是开源软件,之间互相配合使用,完美衔接,高效的 满足了很多场合的应用。目前主流的一种日志系统。 ###1.2 ELKStack介绍

ELKStack入门篇(四)之Filebeat

我们两清 提交于 2020-12-02 05:38:25
Filebeat是轻量级单用途的日志收集工具,用于在没有安装java的服务器上专门收集日志,可以将日志转发到logstash、elasticsearch或redis等场景中进行下一步处理。 官方文档: https://www.elastic.co/guide/en/beats/filebeat/6.0/index.html 1、Filebeat安装和配置 1.1、filebeat安装 #RPM安装 [root@linux -node2 ~]# curl -L -O https: // artifacts.elastic.co/downloads/beats/filebeat/filebeat-6.0.1-x86_64.rpm [root@linux-node2 ~]# rpm - vi filebeat- 6.0 . 1 - x86_64.rpm #docker安装 [root@linux -node2 ~]# docker pull docker.elastic.co/beats/filebeat: 6.0 . 1 1.2、filebeat配置输出到文件测试 [root@linux-node2 ~]# grep -v " # " /etc/filebeat/filebeat.yml | grep -v " ^$ " filebeat.prospectors: - type:

filebeat + ELK 部署篇

心不动则不痛 提交于 2020-11-30 21:48:01
ELK Stack Elasticsearch:分布式搜索和分析引擎,具有高可伸缩、高可靠和易管理等特点。基于 Apache Lucene 构建,能对大容量的数据进行接近实时的存储、搜索和分析操作。通常被用作某些应用的基础搜索引擎,使其具有复杂的搜索功能; Logstash:数据收集引擎。它支持动态的从各种数据源搜集数据,并对数据进行过滤、分析、丰富、统一格式等操作,然后存储到用户指定的位置; Kibana:数据分析和可视化平台。通常与 Elasticsearch 配合使用,对其中数据进行搜索、分析和以统计图表的方式展示; Filebeat:ELK 协议栈的新成员,一个轻量级开源日志文件数据搜集器,基于 Logstash-Forwarder 源代码开发,是对它的替代。在需要采集日志数据的 server 上安装 Filebeat,并指定日志目录或日志文件后,Filebeat 就能读取数据,迅速发送到 Logstash 进行解析,亦或直接发送到 Elasticsearch 进行集中式存储和分析。 目前成熟架构(亿级): Filebeat * n + redis + logstash + elasticsearch + kibana 中小型(本文部署): Filebeat*n +logstash + elasticsearch + kibana Docker 部署Filebeat

日志实时收集之FileBeat+Kafka

谁都会走 提交于 2020-11-24 03:15:52
之前,我们的某一个业务用于实时日志收集处理的架构大概是这样的: 在日志的产生端(LogServer服务器),都部署了FlumeAgent,实时监控产生的日志,然后发送至Kafka。经过观察,每一个FlumeAgent都占用了较大的系统资源(至少会占用一颗CPU 50%以上的资源)。而另外一个业务,LogServer压力大,CPU资源尤其紧张,如果要实时收集分析日志,那么就需要一个更轻量级、占用资源更少的日志收集框架,于是我试用了一下Filebeat。 Filebeat是一个开源的文本日志收集器,采用go语言开发,它重构了logstash采集器源码,安装在日志产生服务器上来监视日志目录或者特定的日志文件,并把他们发送到logstash、elasticsearch以及kafka上。Filebeat是代替logstash-forwarder的数据采集方案,原因是logstash运行在jvm上,对服务器的资源消耗比较大(Flume也是如此)。正因为Filebeat如此轻量级,因此不要奢望它能在日志收集过程中做更多清洗和转换的工作,它只负责一件事,就是高效可靠的传输日志数据,至于清洗和转换,可以在后续的过程中进行。 Filebeat官网地址为:https://www.elastic.co/guide/en/beats/filebeat/current/index.html

ELK与ZABBIX对日志信息内容监控

萝らか妹 提交于 2020-11-22 07:10:46
1 ELK与ZABBIX有什么关系? ELK大家应该比较熟悉了,zabbix应该也不陌生,那么将ELK和zabbix放到一起的话,可能大家就有疑问了?这两个放到一起是什么目的呢,听我细细道来 ELK是一套日志收集套件,它其实有由Elasticsearch、Logstash和Kibana三个软件组成,通过ELK可以收集系统日志、网站日志、应用系统日志等各种日志数据,并且还可以对日志进行过滤、清洗,然后进行集中存放并可用于实时检索、分析。这是ELK的基础功能。 但是有些时候,我们希望在收集日志的时候,能够将日志中的异常信息(警告、错误、失败等信息)及时的提取出来,因为日志中的异常信息意味着操作系统、应用程序可能存在故障,如果能将日志中的故障信息及时的告知运维人员,那么运维就可以第一时间去进行故障排查和处理,进而也就可以避免很多故障的发生。 那么如何才能做到将ELK收集的日志数据中出现的异常信息及时的告知运维人员呢,这就需要用到zabbix了,ELK(更确切的说应该是logstash)可以实时的读取日志的内容,并且还可以过滤日志信息,通过ELK的读取和过滤功能,就可以将日志中的一些异常关键字(error、failed、OutOff、Warning)过滤出来,然后通过logstash的zabbix插件将这个错误日志信息发送给zabbix,那么zabbix在接收到这个数据后,结合自身的机制

sudo+syslog日志审计+登陆用户操作统计

梦想的初衷 提交于 2020-11-19 23:54:18
1、查询系统是否已安装sudo、syslog程序 [ root@shangke ~ ] # rpm -qa|egrep "sudo|syslog" rsyslog-5.8.10-10.el6_6.x86_64 sudo-1.8.6p3-19.el6.x86_64 如果没有安装,则用yum安装,yum install -y sudo syslog 2、配置/etc/sudoers 增加配置“Defaults logfile=/var/log/sudo.log”到/etc/sudoers中 [ root@shangke ~ ] # echo "Defaults logfile=/var/log/sudo.log" >>/etc/sudoers [ root@shangke ~ ] # tail -1 /etc/sudoers ##检查操作是否成功 Defaults logfile = /var/log/sudo.log [ root@shangke ~ ] # visudo -c ##检查sudoers文件语法 /etc/sudoers: parsed OK 3、配置系统日志 增加配置local2.debug到/etc/syslog.conf中(Centos5.8中) 增加配置local2.debug到/etc/rsyslog.conf中(Centos6.4中) [ root

日志监控ELK专题(1)

回眸只為那壹抹淺笑 提交于 2020-11-13 13:38:47
任务背景 运维人员需要对系统和业务日志进行精准把控,便于分析系统和业务状态。日志分布在不同的服务器上,传统的使用 传统的方法依次登录每台服务器查看日志,既繁琐又效率低下。所以我们需要 集中化 的日志管理工具将 位于不同服务 器上的日志收集到一起, 然后进行分析,展示 。 前面我们学习过rsyslog,它就可以实现集中化的日志管理,可是rsyslog集中后的日志实现统计与检索又成了一个问 题。使用wc, grep, awk等相关命令可以实现统计与检索,但如果要求更高的场景,这些命令也会力不从心。所以我们需要一套专业的日志收集分析展示系统。 总结: 1、日志是用于记录系统或业务的状态 2、通过日志可以获得系统或业务的状态,并进行分析。 3、早期的日志是分散在各主机上 4、通过rsyslog实现本地日志管理,收集,轮转,集中管理 5、早期的日志分析方法:wc,grep,awk 6、集中式的日志收集、分析、展示系统 任务要求 1, 搭建ELK集群 2, 收集日志信息并展示 任务拆解 1, 认识ELK 2, 部署elasticsearch集群并了解其基本概念 3, 安装elasticsearch-head实现图形化操作 4, 安装logstash收集日志 5, 安装kibana日志展示 6, 安装file beat实现轻量级日志收集 学习目标 能够说出ELK的应用场景

华为正式登顶全球第一!

依然范特西╮ 提交于 2020-11-08 09:03:33
6月15日,根据第三方机构近日发布的统计数据,华为4月全球出货量登顶全球第一,市场份额达到21%。 4 月全球智能手机出货量为 6937 万台,同比减少 41%,其中,三星手机的市场占有率约为 19.1%,华为则达到了 21.4%, 华为历史上首次超越三星,成功登顶全球第一位置 。 据三星方面猜测,此次三星手机败给华为主要是因为三星占有较大市场的印度因卫生事件原因封城导致三星手机在印度销量暴减。此外,三星有大量工厂位于印度, 印度卫生事件的爆发导致了三星手机的工厂不得不停工停产,三星的生产能力也受到了极大影响 。 IDC 一季度国内手机出货量报告显示,2020 年第一季度,中国智能手机市场出货量约 6660 万台,同比下降 20.3%,华为一季度出货 2840 万台,位居第一, 市场占有率由上年同期的 35.5% 提升至 42.6% ,苹果出货 510 万台,位列国内市场第五,市场占有率 7.6%,上年同期为 6.9%。另外,今年 4 月华为在国内的智能手机市场占有率比去年上升了 13%。 此前,余承东曾表示,预计华为 2020 年手机出货量预计 3.5 亿台,有望超越三星占据头把交椅,这一目标算是基本实现。 不过呢,有一说一, 想要保持持续的领先地位,对于华为来说还有巨大的挑战,继续加油吧! end 最新整理的 2TB 干货资源, 包括但不限于: 架构师、大数据、Docker、

Docker容器日志管理最佳实践

僤鯓⒐⒋嵵緔 提交于 2020-11-06 08:56:22
来自: 自由早晚乱余生 链接:https://www.cnblogs.com/operationhome/p/10907591.html Docker-CE Server Version : 18 .09.6 Storage Driver : overlay2 Kernel Version : 3 .10.0-862.el7.x86_64 Operating System : CentOS Linux 7 ( Core ) Docker 日志分为两类: Docker 引擎日志(也就是 dockerd 运行时的日志), 容器的日志,容器内的服务产生的日志。 一 、Docker 引擎日志 Docker 引擎日志一般是交给了 Upstart(Ubuntu 14.04) 或者 systemd (CentOS 7, Ubuntu 16.04)。前者一般位于 /var/log/upstart/docker.log 下,后者我们一般 通过 journalctl -u docker 来进行查看。 系统 日志位置 Ubuntu(14.04) /var/log/upstart/docker.log Ubuntu(16.04) journalctl -u docker.service CentOS 7/RHEL 7/Fedora journalctl -u docker.service CoreOS

filebeat配置文件

喜夏-厌秋 提交于 2020-11-06 05:50:32
filebeat主要用于收集和转发日志。filebeat监视指定的日志文件和位置,收集日志事件,并将它们转发到es或logstash进行索引。 安装 官网:https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-installation.html # curl -L -O https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-6.5.2-x86_64.rpm # sudo rpm -vi filebeat-6.5.2-x86_64.rpm 说明 Filebeat的工作原理:启动Filebeat时,它会启动一个或多个inputs,这些inputs将查找指定的log的路径。 对于查找到的每个日志,Filebeat将启动一个harvester。 每个harvester读取单个日志的新内容,并将新日志数据发送到libbeat,libbeat聚合事件并将聚合数据发送到配置的output。 我们采用的是 filebeat -> kafka ->logstash -> es。 配置文件 filebeat 配置文件比较简单, 只需要配置一个filebeat.yml input # ============== Filebeat prospectors ==