elk

ELK windows下部署测试

半城伤御伤魂 提交于 2019-12-30 02:23:09
操作系统 win7 (当时想在linux下部署,虚拟内存过小,转而在windows下) 版本说明 elasticsearch-6.6.2 (elasticsearch-head-master插件) logstash-6.6.2 kibana-6.6.2-windows-x86_64 流程(最简单流程如下,后期可以让logstash 存在kafka redis中) logstash采集日志------->elasticsearch中<--------kibana读取数据在展显。 部署 本次测试为单机部署,主要目地测试功能的使用。本次下载的安装包为二进制 Elasticsearch是java程序,而且要跑在jdk1.8版本以上 安装Elasticsearch 修改Elasticsearch配置文件 D:\install\elk\elasticsearch-6.6.2\config\elasticsearch.yml cluster.name: mrice #配置集群名,两台服务器名保持一致 node.name: xgwang # 配置单一节点名称,每个节点唯一标识 path.data: D:\install\elk\elasticsearch-6.6.2\data # data存储路径 path.logs: D:\install\elk\elasticsearch-6.6.2\logs

新版elasticsearch的插件安装

笑着哭i 提交于 2019-12-26 00:13:46
笔者Q:972581034 交流群:605799367。有任何疑问可与笔者或加群交流 安装 yum localinstall elasticsearch-6.1.1.rpm -y mkdir -p /elk/{data,logs} && chown -R elasticsearch.elasticsearch /elk 配置 grep '^[a-Z]' /etc/elasticsearch/elasticsearch.yml cluster.name: yoho8elk #ELK的集群名称,名称相同即属于是同一个集群 node.name: manager-node-1 #本机在集群内的节点名称ode-1 path.data: /elk/data #数据保存目录 path.logs: /elk/logs #日志保存目录 bootstrap.memory_lock: true #服务启动的时候锁定足够的内存,防止数据写入swap,可能会导致云主机报错.可以不填写. network.host: 0.0.0.0 #监听 10.0.1.0网段的 http.port: 9200 discovery.zen.ping.unicast.hosts: ["10.0.1.100", "10.0.1.24"] 修改内存限制,并同步配置文件: https://www.elastic.co/guide/en

ELK 之前端 nginx+elasticsearch+ kibana 部署

别等时光非礼了梦想. 提交于 2019-12-24 16:08:47
之前有导读部分内容,介绍了elk的及kafka的前世今生及优点,各位客官可以点击这里访问,欢迎大家批评指正交流学习共同进步; ( https://blog.51cto.com/seekerwolf/2085891 ) OS:Centos 7 ELK Stack : 6.2.2 安装方式:源码安装 我的日志收集系统是基于这样的架构来做,前端代理使用Nginx,然后是ELK 的全家桶,文件收集使用filebeat来搞定; 一,系统优化, 在安装ES 的主机上需要作如下系统级别的优化工作,不然启动ElasticSearch 的时候会出现报错,同时给未来的运维工作也埋下隐患,所以一开始做好优化之后,以后就不会被各种怪异问题缠绕了! #最大文件打开数参数优化: max file open file-max的含义。man proc,可得到file-max的描述: This file defines a system-wide limit on the number of open files for all processes. (See also setrlimit(2), which can be used by a process to set the per-process limit, RLIMIT_NOFILE, on the number of files it may open

第 11 章 日志管理 - 090 - ELK 完整部署和使用

眉间皱痕 提交于 2019-12-21 04:04:13
ELK 完整部署和使用 几乎所有的软件和应用都有自己的日志文件,容器也不例外。 前面我们已经知道 Docker 会将容器日志记录到 /var/lib/docker/containers/<contariner ID>/<contariner ID>-json.log,那么只要我们能够将此文件发送给 ELK 就可以实现日志管理。 ELK 提供了一个配套小工具 Filebeat,它能将指定路径下的日志文件转发给 ELK。同时 Filebeat 会监控日志文件,当日志更新时,Filebeat 会将新的内容发送给 ELK。 安装 Filebeat 下面在 Docker Host 中安装和配置 Filebeat。 curl -L -O https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.0.1-amd64.deb sudo dpkg -i filebeat-7.0.1-amd64.deb 当你看到这篇文章时,Filebeat 可能已经有了更新的版本,请参考最新的安装文档 https://www.elastic.co/guide/en/beats/filebeat/current/filebeat-installation.html 配置 Filebeat Filebeat 的配置文件为 /etc/filebeat

ELK安装配置,监控nginx日志

醉酒当歌 提交于 2019-12-21 03:59:15
ELK安装配置,监控nginx日志,小白学习中,只为做个记录。原理什么的还不清楚。流程通了!方便日后回顾吧! 1、准备工作 a)关闭防火墙 关闭防火墙:service iptables stop 永久关闭防火墙:chkconfig iptables off 查看防火墙状态:service iptables status b)关闭SELinux 永久有效:修改/etc/sysconfig/selinux 将文本中的SELINUX=enforcing,改为SELINUX=disabled。然后重启 即时有效:setenforce 0 查看状态:getenforce 两台机器 机器1,IP=192.168.10.128  安装部署elk 机器2,IP=192.168.10.129  安装部署ngix以及filebeat 安装部署机器1,(ELK) 获取安装软件包 mkdir /elk;cd /elk wget https://artifacts.elastic.co/downloads/logstash/logstash-6.2.3.tar.gz wget https://artifacts.elastic.co/downloads/kibana/kibana-6.2.3-linux-x86_64.tar.gz wget https://artifacts.elastic.co

ELK安装过程

社会主义新天地 提交于 2019-12-20 15:31:17
官方安装文档: https://www.elastic.co/guide/en/elasticsearch/reference/current/zip-targz.html 官方硬件和配置项推荐: https://www.elastic.co/guide/en/elasticsearch/guide/master/hardware.html 事件--->input---->codec--->filter--->codec--->output 2、环境设置 系统:Centos7.4 IP地址:11.11.11.30 JDK:1.8 Elasticsearch-6.4.3 Logstash-6.4.0 kibana-6.4.0注释:截至2018年11月8日最新版为6.4.3iptables -F 2.1、前期准备 1、安装JDK JDK的下载地址:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html [root@localhost ~]# tar zxvf jdk-8u152-linux-x64.tar.gz -C /usr/local/ 解压后配置全局变量 [root@localhost ~]# vi /etc/profile.d/jdk.sh JAVA_HOME=

supervisor启动elk7.4.0组件

夙愿已清 提交于 2019-12-18 03:18:27
es [program:elasticsearch] command = /srv/app/elk/elasticsearch/bin/elasticsearch autostart = true startsecs = 5 autorestart = true startretries = 3 user = elk redirect_stderr = true stdout_logfile_maxbytes = 20MB stdout_logfile_backups = 20 stdout_logfile = /srv/logs/supervisor/elasticsearch_super.log logstash [program:logstash] command = /srv/app/elk/logstash/bin/logstash -f /srv/app/elk/logstash/config/conf.d/top.conf autostart = true startsecs = 5 autorestart = true startretries = 3 user = elk redirect_stderr = true stdout_logfile_maxbytes = 20MB stdout_logfile_backups = 20 stdout_logfile

ELK和EFK的区别

拜拜、爱过 提交于 2019-12-16 10:20:07
ELK是elasticsearch、logstatsh、kibana三种软件集成的日志搜集展示的框架,其中logstatsh是用于收集日志的软件,通常都会把它单放在其他服务器中,而elasticsearch与kibana可以放在一起,也可以分开放,elastivsearch是用来接受logstatsh传过来的日志文件,然后进行处理,处理完毕之后交给kibana进行一个网页的展示。 EFK是elasticsearch、logstatsh、kibana、zookeeper、kafka五种软件的集成,zookeeper、kafka使用来创建topic收集日志的仓库,当zookeeper、kafka配置好之后可以用创建好的topic用来收集想要的日志,zookeeper与kafka占用资源少、启动快、用起来方便、所以现在绝大多数公司都在使用EFK 来源: https://www.cnblogs.com/Zrecret/p/12047318.html

ELK 和EFK的区别

我是研究僧i 提交于 2019-12-16 10:03:26
ELK和EFK的区别在于 EFK有中间消息件,这个中间消息件可分为 redis 或者 kafka kafka负责收集客户端收集日志 总负责最后交给zookeeper,zookeeper负责把消息发送给logstash机器 logstash机器采集完发送给elasticsearch ,最后在kibana展示页面效果 更多内容请关注,周江涛 来源: https://www.cnblogs.com/security-guard/p/12047297.html

ELK的搭建

社会主义新天地 提交于 2019-12-16 09:46:57
ELK的搭建 首先需要准备两台服务器 第一台安装lostash发现日志 第二台安装elasticsearch和kibana收集日志以及展现图形化界面 来源: https://www.cnblogs.com/l999999999/p/12047309.html