日志文件

Nginx 脚本自动进行日志切割

匿名 (未验证) 提交于 2019-12-02 21:56:30
随着网站的运行时间越来越长,日志文件也会随之越来越大 需要对Nginx日志进行切割,下面是每周六晚上自动进行日志切割的shell脚本 脚本如下: #!/bin/bash                    #解释器 logpath=/usr/local/nginx/logs             #自定义logpath变量,值等于Nginx日志所在路径 mv $logpath/error.log $logpath/error-$date.log      #把当前error日志重命名 接下来把写好的脚本写入计划任务,自动执行。 01 02 * * 6 /usr/local/nginx/logbak.sh        #每周六凌晨2:01运行脚本进行日志切割 来源:博客园 作者: 旧人旧事 链接:https://www.cnblogs.com/jrjs/p/11486504.html

logback不生成日志文件问题

匿名 (未验证) 提交于 2019-12-02 21:53:32
具体场景:   多个项目部署在同一个tomcat下,由于各个项目之间jar大致一样,为了减少空间消耗,方便管理jar等问题,我采用统一管理jar的方式,将通用的jar 放到tomcat容器层引入加载(load),实现统一管理jar。 问题:   多个项目在tomcat下启动正常,唯独只有第一个项目生成了logback日志文件。 解决办法:   将logback-core、logback-classic、slf4j-api 这个jar 分别放回各个项目中去。    文章来源: logback不生成日志文件问题

Ubuntu 设置 log 级别

巧了我就是萌 提交于 2019-12-02 11:19:53
Linux环境下使用rsyslog管理日志 rsyslog linux运维 linux 22.7k 次阅读 · 读完需要 22 分钟 在 Linux 系统中,日志文件记录了系统中包括内核、服务和其它应用程序等在内的运行信息。 在我们解决问题的时候,日志是非常有用的,它可以帮助我们快速的定位遇到的问题。 在 Cent OS 6中,日志是使用 rsyslogd 守护进程进行管理的,该进程是之前版本的系统中 syslogd 的升级版,对原有的日志系统进行了功能的扩展,提供了诸如过滤器,日志加密保护,各种配置选项,输入输出模块,支持通过 TCP 或者 UDP 协议进行传输等。 rsyslog 的配置文件为 /etc/rsyslog.conf , 大多数日志文件都位于 /var/log/ 目录中。 定位日志文件 大多数日志文件都位于 /var/log/ 目录中。在该目录中,你可能注意到很多日志文件末尾包含一串数字(如 maillog-20150301 ),这说明这些日志文件经过了日志转储,这样可以避免日志文件过大。 在软件包 logrotate 中包含了一个定时任务,根据 /etc/logrotate.conf 文件和 /etc/logrotate.d/ 目录中的的配置定期的转储日志文件。 Rsyslog基本配置 Rsyslog 的主要配置文件为 /etc/rsyslog.conf 文件

Oracle重做日志的实现方法

生来就可爱ヽ(ⅴ<●) 提交于 2019-12-02 02:59:44
一、ORACLE引入重做日志目的:记录数据的改变,提供数据库的恢复。 1、日志文件需要分组,同一个重做日志组的每个成员所存的信息完全相同。 2、每个组中的重做日志文件均被称为成员 3、每组最好有2、3个成员,分别放置不同的物理磁盘,这样安全性较高。 4、最少需要两个重做日志组 二、Oracle重做日志的运行流程: Oracle重做日志按照有序循环的方式被使用,即当一组日志文件被填满后,循环覆盖下一组日志文件,不断循环。此时称为日志切换。检查点操作也在此时发生,检查点操 作是用来实现同步的,它会写数据文件的头信息、控制文件。在归档模式下,当一组日志文件被填满后,ARCH(归档写进程)将这组复制到归档日志文件 中。(在ARCH正在写的重做日志文件LGWR是不可以写的) 1、Oracle重做日志文件的定稿是依靠LGWR后台进程 2、.LGWR正在写的重做日志组称为:当前重做日志组。 3、重做日志文件------联机日志文件;归档日志文件------脱机日志文件 三、查询重做日志组: 1、日志组: select group#, sequence#, members, bytes, status, archived from v$log; Status列中各值的意义: Current:当前组。 Inactive:实例恢复已不需要这组日志了 Activie:这组日志是活动的,但非当前组

Linux查看打日志文件

半腔热情 提交于 2019-12-02 00:43:06
1.如果文件比较小的话,使用vim直接查看,如果文件比较大的话,使用vim会直接卡主 2.如果想要查看正在滚动的日志文件.这个命令可以查看大文件. tail -f file Ctrl+c 终止tail命令 Ctrl+s 暂停tail命令 Ctrl+q继续tail命令 3.如果文件比较大的话,也可以使用less命令 less file 但是使用上述命令的坏处是,默认打开的位置是第一行,并且当切换到实时滚动模式(按F,实现效果类似于tail -f 效果)过着想要滚动到最底部的时候(按G)会卡在计算行一段时间,如果卡的时间比较长的话,可以直接按Ctrl+c,取消计算行数. 我更推荐打开文件的时候使用 -n,不计算行号(打开大文件的时候,很有用.) less -n file less +G -n file // 打开文件的时候,直接定位到文件的最底部,默认情况下是在首行。 less +F -n file // 打开文件的时候,使用实时滚动模式,Ctrl + c 退出实时滚动模式,按 F 切回实时滚动模式 less +1000g -n file // 直接定位到第 1000 行,一般你提前通过 grep 命令,定位到行数后,再使用这个命令 less +50p -n file // 直接定位到 50% 的位置 less +50P -n file // 直接定位到第 100 字节的位置

nginx日志文件的配置

非 Y 不嫁゛ 提交于 2019-12-01 21:52:33
文章来源 运维公会: nginx 日志文件的配置 1、日志介绍 nginx有两种日志,一种是访问日志,一种是错误日志。 访问日志中记录的是客户端对服务器的所有请求。 错误日志中记录的是在访问过程中,因为某些原因发生的错误信息。 2、访问日志和错误日志 (1)错误日志 error_log path level 错误日志的格式是没有办法定义的。需要写清楚错误日志的存放路径,相对路径或者绝对路径都可以。 第二个参数是日志的级别。一般的级别有debug|info|notice|warm|error|crit|alert|emerg。一般就配置为error。 一般就是在main,http,server,location;模块中配置。 在启动nginx的时候,日志的目录路径是不会自动创建,需要创建好所有的目录,这样nginx才能够成功启动,否则会报找不到目录路径,而日志文件本身是nginx自动创建。 当访问网页报500错误的时候,就可以在这个日志下找找原因,是不是哪个文件没有权限,或者丢失等等。 所以在测试环境或者生产环境配置这个文件都是非常有必要的。 (2)访问日志 log_format name format 上边是配置访问日志的格式,这个的作用就是配置在实际中需要统计的字段,并不是一定将所有的字段都要统计出来。 name字段自己定义即可,mainlog、mylog,都可以

Hadoop SecondaryNameNode

一世执手 提交于 2019-12-01 21:43:57
作用 1. SecondaryNameNode节点的主要功能是周期性将元数据节点的命名空间镜像文件和修改日志进行合并,以防日志文件过大。 2.NameNode的镜像备份 ,如果NameNode宕机,可以从SecondaryNameNode恢复数据,但会存在数据丢失的情况(SecondaryNameNode最后一次读取镜像和修改日志到宕机中间的数据丢失) 工作原理 NameNode主要用来保存HDFS的元数据信息,比如命名空间信息、块信息等。为了保证效率,Namenode在启动的时候会将这些信息加载到内存中;同时,也会将这些信息持久化到硬盘中,通常会形成以下文件:空间命名镜像文件(fsimage)和修改日志文件(edits)。下图为NameNode的文件目录结构: NameNode在启动时,会读取fsimage文件、合并edits文件。但是一般在集群中,namenode很少会重启,就导致了edits文件会逐渐变大,从而导致edits文件难以管理、重启变慢、edits文件损坏丢失过多数据等各种问题。 所以,Hadoop使用SecondaryNameNode来合并fsimage和edits文件,减少NameNode的工作量,提高Hadoop集群的可靠性。 SecondaryNameNode的工作流程如下: SecondaryNameNode节点通知NameNode节点生成新的日志文件

python logging

邮差的信 提交于 2019-12-01 18:38:47
转载: https://www.cnblogs.com/CJOKER/p/8295272.html python中logging模块的一些简单用法 用Python写代码的时候,在想看的地方写个print xx 就能在控制台上显示打印信息,这样子就能知道它是什么了,但是当我需要看大量的地方或者在一个文件中查看的时候,这时候print就不大方便了,所以Python引入了logging模块来记录我想要的信息。 print也可以输入日志,logging相对print来说更好控制输出在哪个地方,怎么输出及控制消息级别来过滤掉那些不需要的信息。 1、日志级别 import logging # 引入logging模块 # 将信息打印到控制台上 logging.debug(u"苍井空") logging.info(u"麻生希") logging.warning(u"小泽玛利亚") logging.error(u"桃谷绘里香") logging.critical(u"泷泽萝拉") 回显: 上面可以看到只有后面三个能打印出来 默认生成的root logger的level是logging.WARNING,低于该级别的就不输出了 级别排序:CRITICAL > ERROR > WARNING > INFO > DEBUG debug : 打印全部的日志,详细的信息,通常只出现在诊断问题上 info :

catalina.out日志变大

跟風遠走 提交于 2019-12-01 14:50:56
随着项目的运行,Tomcat的日志文件catalina.out的大小日益增大,现在都有好几个GB了。如果我们不做任何处理,catalina.out的文件大小将会持续增加,直到把我们的系统硬盘空间给撑爆不可。 当Tomcat的日志文件catalina.out的大小大于2GB时,Tomcat程序崩溃时将有可能会启动失败并且不会有任何错误信息提示。为了避免该场景的出现,我们要定期轮转catalina.out日志文件。 这里小白使用CentOS6U5自带的logrotate程序来解决catalina.out的日志轮转问题。这种方式比较简单。在/etc/logrotate.d/目录下新建一个名为tomcat的文件,配置闻见为: /usr/local/apache-tomcat-8.0.28/logs/catalina.out{ # 要轮转的文件 copytruncate # 创建新的catalina.out副本后,截断源catalina.out文件 daily # 每天进行catalina.out文件的轮转 rotate 7 # 至多保留7个副本 missingok # 如果要轮转的文件丢失了,继续轮转而不报错 compress # 使用压缩的方式(非常有用,节省硬盘空间;一个2~3GB的日志文件可以压缩成60MB左右) size 16M # 当catalina.out文件大于16MB时

解决Tomcat日志文件catalina.out文件过大问题

我的未来我决定 提交于 2019-12-01 14:50:22
这里小白使用CentOS6U5自带的logrotate程序来解决catalina.out的日志轮转问题。这种方式比较简单。在/etc/logrotate.d/目录下新建一个名为tomcat的文件 cat >/etc/logrotate.d/tomcat <<EOF /usr/local/apache-tomcat-8.0.28/logs/catalina.out{ copytruncate daily rotate 7 missingok compress size 16M } EOF 以上的配置说明: /usr/local/apache-tomcat-8.0.28/logs/catalina.out{ # 要轮转的文件 copytruncate # 创建新的catalina.out副本后,截断源catalina.out文件 daily # 每天进行catalina.out文件的轮转 rotate 7 # 至多保留7个副本 missingok # 如果要轮转的文件丢失了,继续轮转而不报错 compress # 使用压缩的方式(非常有用,节省硬盘空间;一个2~3GB的日志文件可以压缩成60MB左右) size 16M # 当catalina.out文件大于16MB时,就轮转 } 以上是如何工作的呢? 每天晚上crond守护进程会运行在/etc/cron.daily目录中的任务列表;