日志文件

svn报错:“Previous operation has not finished; run 'cleanup' if it was interrupted“ 的解决方法

匿名 (未验证) 提交于 2019-12-02 23:48:02
当SVN改变你的工作拷贝(或是.svn中的任何信息),它会尽可能的小心。在进行任何修改操作时,SVN都会把日志记录到日志文件中,然后执行log文件中的命令, 并且执行过程中在工作拷贝的相关部分保存一个锁,防止SVN客户端在变更过程中访问工作拷贝。如果SVN的操作中断了(举个例子:进程被杀死了,机器死掉了), 日志文件会保存在硬盘上。通过执行日志文件,SVN可以完成上一次没有完成的操作,你的工作拷贝可以回到一致的状态。 这就是svn clean up命令的功能:它查找工作拷贝中的所有遗留的日志文件,删除进程中工作拷贝的锁。如果SVN告诉你工作拷贝中的一部分已经“锁定”了, 你就需要运行这个命令了。 1、eclipse下右键team--》Refresh/cleanup 2、桌面版svn,右键cleanup

log4net自动删除日志文件

匿名 (未验证) 提交于 2019-12-02 23:47:01
static ILog _log = null; static object lockHelper = new object(); private ILog GetLog() { if (null == _log) { lock (lockHelper) { if (null == _log) { StackTrace stackTrace = new StackTrace(this._skipFrames); StackFrame stackFrame = stackTrace.GetFrame(0); MethodBase methodBase = stackFrame.GetMethod(); // ApplicationRollingFile在.config文件中配置的名称 _log = LogManager.GetLogger("ApplicationRollingFile"); Task.Run(()=> { var apps = _log.Logger.Repository.GetAppenders(); if (apps.Length <= 0) { return; } var now = DateTime.UtcNow.AddDays(-10); foreach (var item in apps) { if (item is

openstack compute service list Unable to establish connection to http://controller:8774/v2.1/os-services: (&#039;Connection aborted.&#039;, BadStatusLine(\&quot;&#039;&#039;\&quot;,))

匿名 (未验证) 提交于 2019-12-02 23:42:01
8774是nova的端口号,所以我就逐一查看nova的日志文件。 tail -f /var/log/nova/nova-conductor.log 2019-06-13 08:24:53.559 4448 ERROR oslo.messaging._drivers.impl_ 2019-06-13 08:24:53.559 4448 ERROR oslo.messaging._drivers.impl_ rabbit DuplicateMessageError: Found duplicate message(98b 发现是rabbit的问题,所以重启rabbitmq服务即可。 systemctl restart rabbitmq-server.service 碰到问题的时候一定要查看日志文件,具体问题具体解决。

[spring-boot] logback日志配置

匿名 (未验证) 提交于 2019-12-02 23:41:02
<?xml version="1.0" encoding="UTF-8"?> <!-- 日志级别从低到高分为TRACE < DEBUG < INFO < WARN < ERROR < FATAL,如果设置为WARN,则低于WARN的信息都不会输出 --> <!-- scan:当此属性设置为true时,配置文件如果发生改变,将会被重新加载,默认值为true --> <!-- scanPeriod:设置监测配置文件是否有修改的时间间隔,如果没有给出时间单位,默认单位是毫秒。当scan为true时,此属性生效。默认的时间间隔为1分钟。 --> <!-- debug:当此属性设置为true时,将打印出logback内部日志信息,实时查看logback运行状态。默认值为false。 --> <configuration scan="true" scanPeriod="10 seconds"> <contextName>logback</contextName> <!-- name的值是变量的名称,value的值时变量定义的值。通过定义的值会被插入到logger上下文中。定义变量后,可以使“${}”来使用变量。 --> <property name="log.path" value="../anny1/logs" /> <!-- 彩色日志 --> <!-- 彩色日志依赖的渲染类 -->

Python 记录日志文件

匿名 (未验证) 提交于 2019-12-02 22:51:30
1、打印到控制台 # -*- coding: UTF-8 -*- import logging def logFileTest(): logging.debug('This is debug') logging.warning('This is warning message') logging.info('This is info') logFileTest()   运行结果 WARNING:root:This is warning message   PS : 只有 logging.warning() 能打印输出到控制台,因为默认设置的等级是 warning 2、配置默认等级后,打印到控制台 # -*- coding: UTF-8 -*- import logging def logBasicConfig(): logging.basicConfig(level=logging.DEBUG) logging.debug('This is debug') logging.warning('This is warning message') logging.info('This is info') logBasicConfig()   运行结果 DEBUG:root:This is debug WARNING:root:This is warning message INFO

Log4j的扩展-支持设置最大日志数量的DailyRollingFileAppender

Deadly 提交于 2019-12-02 22:21:02
Log4j现在已经被大家熟知了,所有细节都可以在网上查到,Log4j支持Appender,其中DailyRollingFileAppender是被经常用到的Appender之一。在讨论今天的主题之前,我们先看下另外一个Appender。 最常用的Appender——RollingFileAppender 下面是RollingFileAppender的一个Log4j配置样例(配置1): log4j.appender.R=org.apache.log4j.RollingFileAppender log4j.appender.R.Threshold=DEBUG log4j.appender.R.File=test.log log4j.appender.R.layout=org.apache.log4j.PatternLayout log4j.appender.R.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} [%5p] - %c -%F(%L) -%m%n log4j.appender.R.MaxFileSize=20MB log4j.appender.R.MaxBackupIndex=10 RollingFileAppender使用MaxFileSize设置一个日志文件的最大大小,当产生多个日志时,会在日志名称后面加上".1"、".2

Docker 容器日志分析

别说谁变了你拦得住时间么 提交于 2019-12-02 22:10:42
查看容器日志 先使用 docker run -it --rm -d -p 80:80 nginx:1.15.8-alpine 命令启动一个nginx容器。如果没有异常,会得到容器ID如 d2408a7931c95a3a83ffeca2fba887763cf925a67890ef3be4d9ff838aa25b00 的长串。再使用 curl -i http://127.0.0.1 访问服务,确认nginx容器正常启动运行。最后使用 docker logs -f d24 查看容器的日志输出,大概如下: ? 1 172.17.0.1 - - [24/Mar/2019:03:51:21 +0000] "GET / HTTP/1.1" 200 612 "-" "curl/7.29.0" "-" 一般来说使用容器ID的前3位即可 以上就是我们查看容器日志的日常方法了,非常简单实用。 容器日志文件存储 容器的日志会以json文件方式存储在本地磁盘,可以使用下面方式查看文件路径 docker inspect d42 | grep Log 可以找到: "LogPath": "/var/lib/docker/containers/d2408a7931c95a3a83ffeca2fba887763cf925a67890ef3be4d9ff838aa25b00

Spring Boot - Logback配置日志要考虑哪些因素

情到浓时终转凉″ 提交于 2019-12-02 22:07:05
Spring Boot - Logback配置日志 出于性能等原因,Logback 目前是springboot应用日志的标配; 当然有时候在生产环境中也会考虑和三方中间件采用统一处理方式。@pdai Spring Boot - Logback配置日志 配置时考虑点 实现范例 综合范例 在配置前可以参考如下文章 參考文档 代码示例 最全的Java后端知识体系 https://www.pdai.tech , 每天更新中... 。 配置时考虑点 支持日志路径,日志level等配置 日志控制配置通过application.yml下发 按天生成日志,当天的日志>50MB回滚 最多保存10天日志 生成的日志中Pattern自定义 Pattern中添加用户自定义的MDC字段,比如用户信息(当前日志是由哪个用户的请求产生),request信息。此种方式可以通过AOP切面控制,在MDC中添加requestID,在spring-logback.xml中配置Pattern。 根据不同的运行环境设置Profile - dev,test,product 对控制台,Err和全量日志分别配置 对第三方包路径日志控制 实现范例 如下两个例子基本包含了上述的考虑点: 综合范例 application.yml logging: level: root: debug path: C:/data/logs

Linux 根目录爆满 解决(/dev/mapper/centos-root 100%问题)

匿名 (未验证) 提交于 2019-12-02 21:56:30
Zabbix服务器 问题一: 2019年9月12日 发现 Tab键用不了,提示磁盘空间可能满了,所以查看磁盘空间 df -h 查看发现/dev/mapper/centos-root目录占用过高 Cd到根目录下,发现/var文件占用过高,评测可能为日志文件满了。 查看发现zabbix文件占用过高 可以选择备份日志文件,然后情况日志文件 sz 保存到日志文件到桌面,超过4G则不能传输 或者使用ftp软件复制 直接 echo “”>zabbix_server.log 清空日志文件 日志文件还是爆发式增长: 查询原因是日志的记录级别设置有问题,修改debug记录级别为error,后正常。 还可以扩容容量,暂时没做扩容。 参考地址: https://blog.csdn.net/e_wsq/article/details/79531493 来源:博客园 作者: llody 链接:https://www.cnblogs.com/llody/p/11512332.html

在Linux上使用mssql-conf工具配置SQL Server 2017

匿名 (未验证) 提交于 2019-12-02 21:56:30
mssql-conf是在Linux上安装SQL Server 2017后的一个配置脚本。你可以使用这个实用工具设置以下参数: Agent 启用SQL Server代理 Collation 设置一个新的排序规则 Customer feedback 选择是否发送反馈给微软 Database Mail Profile 设置默认数据库邮件配置 Default data directory 修改新的数据文件的默认路径 Default log directory 修改新的日志文件的默认路径 Default master database file directory 修改master数据库的默认路径 Default master database file name 修改master数据库文件的名字 Default dump directory 修改新的内存DUMP和其他排错文件的默认路径 Defalut error log directory 修改新的SQL Server错误日志文件、默认跟踪、系统健康会话扩展事件和Hekaton会话扩展事件文件 Default backup directory 修改新的备份文件的默认路径 Dump type 选择内存DUMP文件收集的DUMP类型 High availability 启用可用性组 Local Audit directory