logstash

ASP.NET Core 中的日志记录

百般思念 提交于 2019-12-21 04:03:28
目录 内置日志的使用 使用Nlog 集成ELK 参考 内置日志的使用 Logger 是 asp .net core 的内置 service,所以我们就不需要在ConfigureService里面注册了。同时在asp.net core 2.0版本及以后,系统已经在CreateDefaultBuilder方法里默认配置了输出到Console和Debug窗口的Logger。 .ConfigureLogging(delegate(WebHostBuilderContext hostingContext, ILoggingBuilder logging) { logging.AddConfiguration(hostingContext.Configuration.GetSection("Logging")); logging.AddConsole(); logging.AddDebug(); }) 所以我们可以Controller里面直接注入ILoggerFactory然后再创建具体的Logger。 private readonly ILogger _logger; public HomeController(ILoggerFactory logger) { _logger = logger.CreateLogger<HomeController>(); } 但是还有更好的方式

Elastic Stack之kibana入门

假装没事ソ 提交于 2019-12-21 04:02:51
简述 为了解决公司的项目在集群环境下查找日志不便的问题,在做过简单调研后,我选用Elastic公司的Elastic Stack产品作为我们的日志收集,存储,分析工具。 我们通过下面张图来看下各个组件的用处: 我们可以使用logstash来收集日志,Elasticsearch存储日志,Kibana搜索并展示可视化的页面给用户。这是一套成熟的开源产品,各个组件都是可以单独部署的,官方提供丰富的插件,天生支持集群,入门简单,可拓展性极强。 Kibana产品介绍: https://www.elastic.co/cn/products/kibana Kibana下载页: https://www.elastic.co/downloads/kibana Kibana用户指南: https://www.elastic.co/guide/en/kibana/current/index.html kibana安装和系统设置 接下来我们在linux下的安装,假设你已经安装了Elasticsearch,logstash,并且安装了jdk 1.8 使用 cat /etc/centos-release 查看系统版本:   CentOS Linux release 7.2.1511 (Core) 使用 cat /proc/version 查看系统内核   Linux version 3.10.0-327.el7

基于elk 实现nginx日志收集与数据分析。

北城以北 提交于 2019-12-21 04:01:45
一。背景 前端web服务器为nginx,采用filebeat + logstash + elasticsearch + granfa 进行数据采集与展示,对客户端ip进行地域统计,监控服务器响应时间等。 二。业务整体架构: nginx日志落地——》filebear——》logstash——》elasticsearch——》grafna(展示) 三。先上个效果图,慢慢去一步步实现 如上只是简单的几个实用的例子,实际上有多维度的数据之后还可以定制很多需要的内容,如终端ip访问数,国家、地区占比,访问前十的省份,请求方法占比,referer统计,user_agent统计,慢响应时间统计,更有世界地图坐标展示等等,只要有数据就能多维度进行展示。这里提供模板搜索位置大家可以查找参考: https://grafana.com/dashboards 四,准备条件 需要具备如下条件: 1.nginx日志落地,需要主要落地格式,以及各个字段对应的含义。 2.安装filebeat。 filebeat轻量,功能相比较logstash而言比较单一。 3.安装logstash 作为中继服务器。这里需要说明一下的是,起初设计阶段并没有计划使用filebeat,而是直接使用logstash发往elasticsearch,但是当前端机数量增加之后logstash数量也随之增加

ELK日志分析平台搭建

旧巷老猫 提交于 2019-12-21 04:01:30
ELK平台介绍 在搜索ELK资料的时候,发现这篇文章比较好,于是摘抄一小段: 以下内容来自: http://baidu.blog.51cto.com/71938/1676798 日志主要包括系统日志、应用程序日志和安全日志。系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误。 通常,日志被分散的储存不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志。这样是不是感觉很繁琐和效率低下。当务之急我们使用集中化的日志管理,例如:开源的syslog,将所有服务器上的日志收集汇总。 集中化管理日志后,日志的统计和检索又成为一件比较麻烦的事情,一般我们使用grep、awk和wc等Linux命令能实现检索和统计,但是对于要求更高的查询、排序和统计等要求和庞大的机器数量依然使用这样的方法难免有点力不从心。 开源实时日志分析ELK平台能够完美的解决我们上述的问题,ELK由ElasticSearch、Logstash和Kiabana三个开源工具组成。官方网站: https://www.elastic.co/products Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口

源码安装ELK-5.6.10版本

百般思念 提交于 2019-12-21 04:01:15
目录: 一、介绍 二、安装JDK 三、安装Elasticsearch 四、安装Kibana 五、安装Nginx 六、安装Logstash 七、安装Logstash-forwarder 八、测试 系统环境:CentOS Linux release 7.4.1708 (Core) 软件版本: elasticsearch-5.6.10 kibana-5.6.10 logstash-5.6.10 当前问题状况 开发人员不能登录线上服务器查看详细日志。 各个系统都有日志,日志数据分散难以查找。 日志数据量大,查询速度慢,或者数据不够实时。 一、介绍 1、组成 ELK由Elasticsearch、Logstash和Kibana三部分组件组成; Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。 Logstash是一个完全开源的工具,它可以对你的日志进行收集、分析,并将其存储供以后使用 kibana 是一个开源和免费的工具,它可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志。 2、四大组件 Logstash: logstash server端用来搜集日志; Elasticsearch: 存储各类日志

日志管理系统ELK6.2.3

你说的曾经没有我的故事 提交于 2019-12-21 04:00:54
https://www.jianshu.com/p/88f2cbedcc2a 写在前面 刚毕业工作的时候,处理日志喜欢自己写脚本抓取数据分析日志,然后在zabbix上展示出来。但是开发要看日志的时候,还是要登录服务器,使用tailf、grep加一些正则,很是麻烦。来到一个新环境,需要搭建一套日志管理系统,接触了elk,相见恨晚,记录下自己从零开始学习使用elk的过程。 日志管理系统ELK 目录 部署架构图 部署版本 部署地址 服务部署 总结 部署架构图: elk.png 部署前了解: 1、elk现在又叫elfk,是elasticsearch、logstash、filebeat、kibana的简称。 2、elk架构类似于C/S,由客户端的日志收集工具收集日志,服务端的日志收集工具收集分析客户端的日志。之前客户端的日志收集工具logstash是用java写的,比较占用内存,为了不给生产环境造成负担,生产环境上的日志收集工具换成了用go语言写的filebeat,filebeat将日志收集到redis里面,利用redis做消息队列,服务端的logstash从redis里面取数据,分析,传到elasticsearch,最后用kibana展示出来 3、本次安装是安装在内网,故没有考虑到安全的问题,安装过程中会提到 4、本次安装是基于debian,如果是centos注意从官网下载不同的软件包

ELK平台的搭建

爷,独闯天下 提交于 2019-12-21 04:00:33
  ELK是指Elasticsearch + Logstash + Kibaba三个组件的组合。本文讲解一个基于日志文件的ELK平台的搭建过程,有关ELK的原理以及更多其他信息,会在接下来的文章中继续研究。   在这个系统中,Elasticsearch主要充当一个全文检索和分析引擎,Logstash是一款分布式日志收集系统,Kibana可以为这个平台提供可视化的Web界面。 一、环境准备   三台虚拟机:m000,m001,m002,操作系统版本为Ubuntu-14.04   Elasticsearch-2.3.2   Logstash-2.3.2   Kibana-4.5.1   JDK-1.7.0_79        在该系统中ELK的关系如下图所示:    二、各组件的部署   ELK的运行依赖于Java环境,JDK可自行安装,本节主要讲Elasticsearch,Logstash和Kibaba的安装和配置过程。 1、Elasticsearch (1)elasticsearch   下载地址: https://www.elastic.co/downloads/elasticsearch   下载好后,上传到m000:/usr/local/elk路径下解压缩,设置/usr/local/elasticsearch软连接指向该路径。进入ES_HOME

ELK 搭建

与世无争的帅哥 提交于 2019-12-21 04:00:14
一.环境准备 两台主机: 主机1 elk-master 192.168.93.14 主机2 elk-node 192.168.93.19 主机hosts 192.168.93.14 elk-master 安装elasticsearch和kibana 192.168.93.19 elk-node 安装elasticsearch和logstash 备注:版本为6.8.0-1 二.部署 1.安装jdk 下载jdk8 地址 https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html jdk-8u211-linux-x64.tar.gz #tar xvf jdk-8u211-linux-x64.tar.gz #mv jdk1.8.0_211 /usr/local/jdk1.8 #vim /etc/profile //添加如下 export JAVA_HOME=/usr/local/jdk1.8 export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH export JRE_HOME=$JAVA_HOME/jre #source

ELK日志分析系统(原创)

不羁的心 提交于 2019-12-21 03:59:49
一、简介 ELK由Elasticsearch、Logstash和Kibana三部分组件组成; Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful风格接口,多数据源,自动搜索负载等。 Logstash是一个完全开源的工具,它可以对你的日志进行收集、分析,并将其存储供以后使用 kibana 是一个开源和免费的工具,它可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助您汇总、分析和搜索重要数据日志。 二、工作流程 在需要收集日志的服务器(本文用nginx服务器,地址为192.168.5.148)上部署logstash,用于监控并过滤收集日志,将过滤后的内容按照特定的格式收集在一起交给全文搜索服务ElasticSearch,可以用ElasticSearch进行自定义搜索通过Kibana 来结合自定义搜索进行页面展示。 三、ELK帮助手册 ELK官网:https://www.elastic.co/ ELK官网文档:https://www.elastic.co/guide/index.html ELK中文手册: http://kibana.logstash.es/content/elasticsearch/monitor/logging.html 视频教程

ELK学习笔记

余生长醉 提交于 2019-12-21 03:59:33
安装jdk 选择oracle官网下载源码包 http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html # 上传解压jdk压缩包 mkdir /usr/local/java rz 上传压缩包 tar zxf 压缩包 [root@linux-node1 elasticsearch]# ll /usr/local/java/ total 4 drwxr-xr-x. 8 10 143 4096 Dec 19 16:24 jdk1.8.0_161    #配置java的环境变量 [root@linux-node1 elasticsearch]# tail -4 /etc/profile JAVA_HOME=/usr/local/java/jdk1.8.0_161 JRE_HOME=$JAVA_HOME/jre PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin CLASSPATH=:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib/dt.jar [root@linux-node1 elasticsearch]# . /etc/profile    #检查环境变量配置 [root