日志文件

logrotate linux 系统日志管理

泪湿孤枕 提交于 2019-11-28 07:46:32
logrotate logrotate简介 logrorare一定程度上可以简化对会生成大量日志文件的系统的管理。logrotate可以实现自动轮替、删除、压缩和mail日志的功能。 执行命令 logrotate [-dv] [-f|--force] [-s|--state statefile] config_file .. 选项 # logrotate --help Usage: logrotate [OPTION...] <configfile> -d, --debug Don't do anything, just test (implies -v) 不做实际处理,仅调试 -f, --force Force file rotation 强制执行,忽视参数要求 -m, --mail=command Command to send mail (instead of `/bin/mail') 发送mail -s, --state=statefile Path of state file 查看状态文件 -v, --verbose Display messages during rotation 轮替一次,并显示轮替过程信息 --version Display version information 显示logrotate版本 Help options: -?, --help Show

mysql01

眉间皱痕 提交于 2019-11-28 03:14:05
mysql的安装与配置 安装centos6.9 网卡设置 1 cd /etc/sysconfig/network-scripts 2 vim ifcfg-eth0 3 onboot yes 4 DNS1=8.8.8.8 service network restart mysql的安装 1.http://dev.mysql.com/downloads/repo/yum/2.yum localinstall mysql57-community-release-el6-11.noarch.rpm 3.yum -y install mysql-community-server 重启mysql服务 service mysqld start 第一次登陆从log日志中取得随机密码 1 more /var/log/mysqld.log 修改密码的复杂度 1 修改密码的复杂度 2 set global validate_password_policy=0; 3 修改密码的长度 4 set global validate_password_length=1; 5 6 alter user 'root'@'localhost' identified by 'root'; 其他操作 1 创建用户 2 create user 'test'@'%' identified by 'test'; 3 4

(转)python logging模块

你离开我真会死。 提交于 2019-11-27 23:52:49
原文:http://www.cnblogs.com/dahu-daqing/p/7040764.html 1 logging模块简介 logging模块是Python内置的标准模块,主要用于输出运行日志,可以设置输出日志的等级、日志保存路径、日志文件回滚等;相比print,具备如下优点: 可以通过设置不同的日志等级,在release版本中只输出重要信息,而不必显示大量的调试信息; print将所有信息都输出到标准输出中,严重影响开发者从标准输出中查看其它数据;logging则可以由开发者决定将信息输出到什么地方,以及怎么输出; 2 logging模块使用 2.1 基本使用 配置logging基本的设置,然后在控制台输出日志, import logging logging.basicConfig(level = logging.INFO,format = '%(asctime)s - %(name)s - %(levelname)s - %(message)s') logger = logging.getLogger(__name__) logger.info("Start print log") logger.debug("Do something") logger.warning("Something maybe fail.") logger.info("Finish") 运行时

SQL server 压缩日志文件

安稳与你 提交于 2019-11-27 21:39:26
项目中出现sqlserver日志文件剧增的情况,数据库文件2G左右,日志文件已经达到了70G,怀疑是因为做了增量备份的原因导致的日志文件剧增,现改成了完整备份跟踪一下看看,但还需要将原已产生的日志文件缩小,上脚本: USE [master] GO ALTER DATABASE Test SET RECOVERY SIMPLE WITH NO_WAIT GO ALTER DATABASE Test SET RECOVERY SIMPLE GO USE Otani GO DBCC SHRINKFILE (N'Test_Log' , 11, TRUNCATEONLY) GO USE [master] GO ALTER DATABASE Test SET RECOVERY FULL WITH NO_WAIT GO ALTER DATABASE Test SET RECOVERY FULL GO 将脚本中 Test 替换成实际数据库名就OK了。 来源: https://www.cnblogs.com/xiaoerlang90/p/11378583.html

Android 软件测试日志文件抓取

旧巷老猫 提交于 2019-11-27 16:06:54
1 log文件分类简介 实时打印的主要有:logcat main,logcat radio,logcat events,tcpdump,还有高通平台的还会有QXDM日志 状态信息的有:adb shell cat /proc/kmsg ,adb shell dmesg,adb shell dumpstate,adb shell dumpsys,adb bugreport,工程模式等 2 LOG抓取详解 l 实时打印  adb logcat -b main -v time>app.log 打印应用程序的log  adb logcat -b radio -v time> radio.log 打印射频相关的log,SIM STK也会在里面,modem相关的ATcommand等,当然跟QXDM差的很远了。 adb logcat -b events -v time 打印系统事件的日志,比如触屏事件。。。 tcpdump 是很有用的,对于TCP/IP协议相关的都可以使用这个来抓,adb shell tcpdump -s 10000 -w /sdcard/capture.pcap,比如抓mms下载的时候的UA profile,browser上网的时候,使用proxy的APN下载,streaming的相关内容包括UA profile等。 最后是高通平台的QXDM,不管是不是Android

Linux 查看日志文件

杀马特。学长 韩版系。学妹 提交于 2019-11-27 15:33:23
1. tail命令:从文本文件的尾部开始查看,用于显示文本文件的末尾几行 tail -n filename  指定需要显示多少行 tail -f filename   实时 显示文件内容, 默认最后10行,相当于增加参数 -n 10 tail -n 50 -f filename   实时 显示文件的后50行内容 2. 搜索关键字附近的日志 最常用的: cat -n filename |grep "关键字" 其他情况: cat filename | grep -C 5 '关键字' (显示日志里匹配字串那行以及前后5行) cat filename | grep -B 5 '关键字' (显示匹配字串及前5行) cat filename | grep -A 5 '关键字' (显示匹配字串及后5行) 来源: https://www.cnblogs.com/nemowang1996/p/11368532.html

SQL Server 日志文件清理

流过昼夜 提交于 2019-11-27 13:04:07
数据库在使用过程中会发现日志文件越来越大,有时甚至超过了数据库数据本身,而这些日志信息一直都不会使用到,这是就可以直接将过大的数据库日志文件删除掉。删除步骤如下: 1、登录 SQL Sever Management Studio 中,选择需要处理的数据库,右键-》任务-》分离 2、分离完成后,进入数据库文件所在目录,通常数据库文件会存储为如下形式: 数据库文件:数据库.mdf 数据库日志文件:数据库_log.ldf 3、删除上述的【数据库_log.ldf】文件,而后重新进入 SQL Sever Management Studio 中,在【数据库】上右键选择【附加】,在附加界面选择上述【数据库.mdf】 4、附加界面内,会显示【数据库_log.ldf】不存在,附加内容中删除【数据库_log.ldf】,然后点击确定,会看到数据库文件所在目录重新生成【数据库_log.ldf】文件,且文件大小约为 500K 来源: https://www.cnblogs.com/daochangone/p/11364373.html

当日志文件中的时间与主机时间不同步时,怎么监控每隔五分钟检测一次日志文件是否出自按某个关键字?

心不动则不痛 提交于 2019-11-27 09:59:23
今有需求:需要监控每隔五分钟检测一次日志文件是否出自按某个关键字。利用过滤全部的日志信息 虽然可以过滤出来关键字告警,但是修复后,依然还是会报警,存在局限性,所以需要使用以下办法来实现需求。 本想循环获取5分钟内的时间戳,然后从日志文件中grep这个时间端的信息,然后再获取关键字,但是通过查看日志文件发现时间戳与主机时间不同步,所以,这种方法不可取。 那么怎么获取最近五分钟的日志信息,再过滤关键字呢?思索了很久,又有了新思路。 将现在的文件日志重定向到一个新的文件里面 cat /var/log/xxx > /root/logs/tmp.txt9 //执行此命令,因为第一次需要手动执行,后续循环不需要再执行 然后写一个监控脚本(此脚本是被监控主机监控项的命令,五分钟获取一次信息,即五分钟执行一次脚本) #!/bin/sh LOG_FILE=/var/log/xxx KEY_WORDS="guanjianzi" if [ ! -s /var/log/xxx ];then //判断文件是否为空,为空则输出为0;不为空,则执行下一步 echo "0" else A=$(awk '{print NR}' /root/logs/tmp.txt9 | tail -n1) //统计将日志重定向的到此文件的行数 B=$(awk '{print NR}' /var/log/xxx | tail -n1

PgSQL · 追根究底 · WAL日志空间的意外增长

泪湿孤枕 提交于 2019-11-27 05:07:29
问题出现 我们在线上巡检中发现,一个实例的pg_xlog目录,增长到4G,很是疑惑。刚开始怀疑是日志归档过慢,日志堆积在pg_xlog目录下面,未被清除导致。于是检查归档目录下的文件,内容如下。但发现新近完成写入的日志文件都被归档成功了(即在pg_xlog/archive_status里面,有对应的xxx.done文件)。 ls - lrt pg_xlog ... -rw------- 1 xxxx xxxx 16777216 Jun 14 18 : 39 0000000100000035000000DE -rw------- 1 xxxx xxxx 16777216 Jun 14 18 : 39 0000000100000035000000DF drwx ------ 2 xxxx xxxx 73728 Jun 14 18 : 39 archive_status -rw------- 1 xxxx xxxx 16777216 Jun 14 18 : 39 0000000100000035000000E0 ls -lrt pg_xlog/ archive_status ... -rw------- 1 xxxx xxxx 0 Jun 14 18 : 39 0000000100000035000000DE. done -rw------- 1 xxxx xxxx 0 Jun 14

MySQL binlog

守給你的承諾、 提交于 2019-11-26 20:33:48
1.前言 日志是把数据库的每一个变化都记载到一个专用的文件里,这种文件就叫做日志文件。Mysql默认只打开出错日志,因为过多的日志将会影响系统的处理性能。 在5.0前支持文本格式和二进制格式,5.0后只支持二进制格式,因为二进制日志在性能、信息处理方面有更多的优点。 2.基础知识 2.1、二进制日志的启用 二进制日志由配置文件的log-bin选项负责启用,Mysql服务器将在数据根目录创建两个新文件XXX-bin.001和XXX-bin.index,若配置选项没有给出文件名,Mysql将使用主机名称命名这两个文件,其中.index文件包含一份全体日志文件的清单。 Mysql会把用户对所有数据库的内容和结构的修改情况记入XXX-bin.n文件,而不会记录SELECT和没有实际 2.2、更新的UPDATE语句。 日志文件的扩展 当停止或重启时,服务器会把日志文件记入下一个日志文件,Mysql会在重启时生成一个新的日志文件,文件序号递增,此外,如果日志文件超过max_binlog_size系统变量配置的上限时,也会生成新的日志文件。 2.3、日志文件的查看 Mysql提供了mysqlbinlog命令来查看日志文件,如mysqlbinlog xxx-bin.001 | more。在记录每条变更日志的时候,日志文件都会把当前时间给记录下来,以便进行数据库恢复。 2.4、日志文件的停用