log文件

nginx(四)初识nginx日志文件

做~自己de王妃 提交于 2019-12-21 03:52:14
nginx 日志相关指令主要有两条,一条是log_format,用来设置日志格式,另外一条是access_log,用来指定日志文件的存放路径、格式和缓存大小,通俗的理解就是先用log_format来定义自己想用的日志格式,然后在用zccess_log定义虚拟主机时或全局日志时 在把定义的log_format 跟在后面; 1、log_format 格式 log_format name( 格式名字) 格式样式(即想要得到什么样的日志内容) 默认的示例: log_format main '$remote_addr - $remote_user [$time_local] "$request" ' '$status $body_bytes_s ent "$http_referer" ' '"$http_user_agent" "$http_x_forwarded_for"' 注释: $remote_addr 与$ http_x_forwarded_for 用以记录客户端的ip地址; $remote_user : 用来记录客户端用户名称; $time_local : 用来记录访问时间与时区; $request : 用来记录请求的url与http协议; $status : 用来记录请求状态;成功是200, $body_bytes_s ent : 记录发送给客户端文件主体内容大小; $http

ELK 6安装配置 nginx日志收集 kabana汉化

给你一囗甜甜゛ 提交于 2019-12-21 03:49:56
#ELK 6安装配置 nginx日志收集 kabana汉化 #环境 centos 7.4 ,ELK 6 ,单节点 #服务端 Logstash 收集,过滤 Elasticsearch 存储,索引日志 Kibana 可视化 #客户端 filebeat 监控、转发,作为agent filebeat-->Logstash-->Elasticsearch-->Kibana #基本配置 #时间同步 #关闭selinux #内核优化 #防火墙端口 #内核 echo ' * hard nofile 65536 * soft nofile 65536 * soft nproc 65536 * hard nproc 65536 '>>/etc/security/limit.conf echo ' vm.max_map_count = 262144 net.core.somaxconn=65535 net.ipv4.ip_forward = 1 '>>/etc/sysctl.conf sysctl -p #防火墙 firewall-cmd --permanent --add-port={9200/tcp,9300/tcp,5044/tcp,5601/tcp} firewall-cmd --reload frewall-cmd --list-all #安装 #可以下载tar或者rpm包安装 # 官网

Apache深度优化

一世执手 提交于 2019-12-20 23:26:28
一、开启apache的Gzip(deflate)功能 gzip可以极大的加速网站,压缩比率通常在40%~80%之间,在之前的版本中,Gizp是第三方压缩工具,但是在Gzip 2版本后,Apache自己开发了deflate模块,用来实现压缩功能。 如果要开启apache的压缩功能,需要在编译安装apache时,增加“--enable-deflate”配置项,并且必须在主配置文件中打开下面两个模块: LoadModule deflate_module modules/mod_deflate.so LoadModule headers_module modules/mod_headers.so 注意:如果在编译安装时,没有增加“--enable-deflate”选项,可以使用DSO方式安装此功能,如下: [root@www ~]# cd /root/httpd-2.4.23/modules/filters/ #切换至apache 源码包 mod_deflate 所在的目录下 [root@www ~]# /usr/local/http-2.4.23/bin/apxs -c -i -a mod_deflate.c #以 dso 的方式编译安装到 apache 中 如果报错如下: 此报错是缺少zlib-devel的安装包,直接执行“yum -y install zlib-devl”进行安装即可

ELK安装过程

社会主义新天地 提交于 2019-12-20 15:31:17
官方安装文档: https://www.elastic.co/guide/en/elasticsearch/reference/current/zip-targz.html 官方硬件和配置项推荐: https://www.elastic.co/guide/en/elasticsearch/guide/master/hardware.html 事件--->input---->codec--->filter--->codec--->output 2、环境设置 系统:Centos7.4 IP地址:11.11.11.30 JDK:1.8 Elasticsearch-6.4.3 Logstash-6.4.0 kibana-6.4.0注释:截至2018年11月8日最新版为6.4.3iptables -F 2.1、前期准备 1、安装JDK JDK的下载地址:https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html [root@localhost ~]# tar zxvf jdk-8u152-linux-x64.tar.gz -C /usr/local/ 解压后配置全局变量 [root@localhost ~]# vi /etc/profile.d/jdk.sh JAVA_HOME=

mysql5.6 主从配置

点点圈 提交于 2019-12-20 11:49:27
两台机子都是win7系统,mysql版本为5.6 本例中使用的主从服务器ip分别为:192.168.9.71;192.168.9.248 一、配置master服务器 1、配置 在my.ini中[mysqld]配置如下: log-bin=mysql-bin log-bin-index=mysql-bin.index server-id=1 sync_binlog=1 binlog_format=mixed binlog-do-db=testdb binlog-ignore-db=mysql binlog-ignore-db=performance_schema binlog-ignore-db=information_schema 网上有种说法max_allowed_packet需要配置一个较大的值。原因未知。 配置完成后重启MySql服务。 2、授权:授权slave同步数据的账号密码。 GRANT REPLICATION SLAVE ON *.*TO 'ROOT'@'192.168.9.248' IDENTIFIED BY 'ROOT'; 说明: ROOT:Slave使用的账号 IDENTIFIED BY 'ROOT' :Slave使用的密码 192.168.120.209:Slave 数据库IP master端,通过命令窗口 show master status\G 显示信息

vcenter 问题排查--vcenter api上传文件至虚拟机报500错误

我的梦境 提交于 2019-12-20 08:41:34
vcenter 问题排查–vcenter api上传文件至虚拟机报500错误 文章目录 vcenter 问题排查--vcenter api上传文件至虚拟机报500错误 1. 问题背景 2. 问题排查记录 1. 问题背景 vcenter由5.5升级到6.0后,向esxi下的windows10虚拟机上传文件,vcenter api反馈500,但向同esxi下的windows7虚拟机上传文件是成功的。 2. 问题排查记录 1.问题定位 500错误首先可以排除上传脚本本身问题,上传文件是通过vcenter api获取上传文件的url,然后以POST方式将文件上传至虚拟机中。 上传文件的url为: https://1.1.1.159:443/guestFile?id=83&token=52a90eee-5c9e-004f-7cba-4ae79949830c83 其中 1.1.1.159 为esxi IP,所以初步定位是esxi内的服务发生了错误。 2.进入esxi中进一步排查 登录esxi,打开ssh远程连接选项 ![avatar][open_ssh_of_esxi] ssh进入esxi中,尝试用 netstat -apn | grep 443 查找出服务信息,但esxi中没有 netstat 命令,查看常见的web服务进程 ps | grep nginx , ps | grep

快速搭建ELK日志分析系统

跟風遠走 提交于 2019-12-20 07:20:24
原文 https://www.cnblogs.com/yuhuLin/p/7018858.html 一、ELK搭建篇 官网地址:https://www.elastic.co/cn/ 官网权威指南:https://www.elastic.co/guide/cn/elasticsearch/guide/current/index.html 安装指南:https://www.elastic.co/guide/en/elasticsearch/reference/5.x/rpm.html ELK是Elasticsearch、Logstash、Kibana的简称,这三者是核心套件,但并非全部。 Elasticsearch是实时全文搜索和分析引擎,提供搜集、分析、存储数据三大功能;是一套开放REST和JAVA API等结构提供高效搜索功能,可扩展的分布式系统。它构建于Apache Lucene搜索引擎库之上。 Logstash是一个用来搜集、分析、过滤日志的工具。它支持几乎任何类型的日志,包括系统日志、错误日志和自定义应用程序日志。它可以从许多来源接收日志,这些来源包括 syslog、消息传递(例如 RabbitMQ)和JMX,它能够以多种方式输出数据,包括电子邮件、websockets和Elasticsearch。 Kibana是一个基于Web的图形界面,用于搜索、分析和可视化存储在

mysqlbinlog: unknown variable 'default-character-s

谁说我不能喝 提交于 2019-12-19 23:38:52
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 下午在排查MySQL主从同步问题时,想从主库的binlog中找一些线索,裸的binlog文件是无法直视的,mysqlbinlog这个工具是用来查看binlog文件内容的(使用方式man mysqlbinlog查看),但是使用mysqlbinlog将binlog文件转换成人类可读的内容时却报错: 1 2 [xxx@dbhost log]$ mysqlbinlog mysql-bin.000004 mysqlbinlog: unknown variable 'default-character-set=utf8'   原因是mysqlbinlog这个工具无法识别binlog中的配置中的default-character-set=utf8这个指令。 两个方法可以解决这个问题 一是在MySQL的配置/etc/my.cnf中将default-character-set=utf8 修改为 character-set-server = utf8,但是这需要重启MySQL服务,如果你的MySQL服务正在忙,那这样的代价会比较大。 二是用mysqlbinlog --no-defaults mysql-bin.000004 命令打开 来源: oschina 链接: https://my.oschina.net/u/1859350

mysqlbinlog: unknown variable 'default-character-s

£可爱£侵袭症+ 提交于 2019-12-19 23:38:39
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 下午在排查MySQL主从同步问题时,想从主库的binlog中找一些线索,裸的binlog文件是无法直视的,mysqlbinlog这个工具是用来查看binlog文件内容的(使用方式man mysqlbinlog查看),但是使用mysqlbinlog将binlog文件转换成人类可读的内容时却报错: 1 2 [xxx@dbhost log]$ mysqlbinlog mysql-bin.000004 mysqlbinlog: unknown variable 'default-character-set=utf8'   原因是mysqlbinlog这个工具无法识别binlog中的配置中的default-character-set=utf8这个指令。 两个方法可以解决这个问题 一是在MySQL的配置/etc/my.cnf中将default-character-set=utf8 修改为 character-set-server = utf8,但是这需要重启MySQL服务,如果你的MySQL服务正在忙,那这样的代价会比较大。 二是用mysqlbinlog --no-defaults mysql-bin.000004 命令打开 来源: oschina 链接: https://my.oschina.net/u/1859350

squid介绍及其简单配置

六月ゝ 毕业季﹏ 提交于 2019-12-19 18:50:01
squid的简单介绍 squid的概念 squid是一种用来缓存Internet数据的软件。接受来自人们需要下载的目标(object)的请求并适当的处理这些请求。也就是说,如果一个人想下载一web界面,他请求squid为他取得这个页面。squid随之连接到远程服务器并向这个页面发出请求。然后,squid显式地聚集数据到客户端机器,而且同时复制一份。当下一次有人需要同一页面时, squid可以简单的从磁盘中读到它,那样数据会立即传输到客户机上。 squid代理的作用 通过缓存的方式为用户提供Web访问加速 对用户的Web访问进行过滤控制 工作流程 当代理服务器中有客户端需要的数据时: a. 客户端向代理服务器发送数据请求; b. 代理服务器检查自己的数据缓存; c. 代理服务器在缓存中找到了用户想要的数据,取出数据; d. 代理服务器将从缓存中取得的数据返回给客户端。 当代理服务器中没有客户端需要的数据时: 客户端向代理服务器发送数据请求; 代理服务器检查自己的数据缓存; 代理服务器在缓存中没有找到用户想要的数据; 代理服务器向Internet 上的远端服务器发送数据请求; 远端服务器响应,返回相应的数据; 代理服务器取得远端服务器的数据,返回给客户端,并保留一份到自己的数据缓存中。 Squid代理服务器工作在TCP/IP应用层 Squid各种代理的定义 正向代理