日志文件

前端提交文件,后端接收文件并保存。

主宰稳场 提交于 2019-11-30 03:11:13
/** * 上传日志信息 * * @param request * @return */ @ResponseBody @RequestMapping(value = "uploadLog", produces = { "text/html;charset=UTF-8;" }) public String uploadLog(@RequestParam("uploadLog") MultipartFile file, HttpServletRequest request) { MessageRet msg = new MessageRet(); if (!file.isEmpty()) { // 获取文件名 String fileName = file.getOriginalFilename(); // 获取文件的后缀名 String suffixName = fileName.substring(fileName.lastIndexOf(".")); // 文件上传后的路径 String filePath = "C:\\Users\\zhangzq\\Desktop\\test\\"; File dest = new File(filePath + fileName); // 检测是否存在目录 if (!dest.getParentFile().exists()) { dest

Spring MVC代码实例系列-05:Spring MVC配置Log4j以及 log4j.properties 属性详解介绍

帅比萌擦擦* 提交于 2019-11-30 00:14:16
超级通道 :Spring MVC代码实例系列-绪论 本章主要讲解如何在Spring MVC中配置Log4j,并对log4j.properties 的属性进行介绍。 1.Spring MVC配置Log4j 1.1.pom.xml < log4j.version > 1.2.17 </ log4j.version > <!--log4j--> < dependency > < groupId > log4j </ groupId > < artifactId > log4j </ artifactId > < version > ${log4j.version} </ version > </ dependency > 1.2.log4j.properties src\main\resources\log4j.properties log4j .rootLogger =all, stdout, file log4j .appender .stdout =org .apache .log 4j .ConsoleAppender log4j .appender .stdout .Target =System .out log4j .appender .stdout .layout =org .apache .log 4j .PatternLayout log4j .appender

SQL SERVER 日志写入原理浅析

牧云@^-^@ 提交于 2019-11-29 23:36:08
昨天看到网上有一个关于SQL SERVER 课件,便随手下载了下来看看主要讲了些什么内容,于是看到了下面两个PPT页面 由于第一张PPT上的内容不太准确(日志文件中没有“日志页”的概念,只有VLF的概念,可能是我们对“数据页”的概念太深刻了,因此弄了以“日志页”的概念出来,而PPT中说先更新高速缓冲区中的数据页,然后将事务日志写入到“日志页”,很容易让人理解成先更改高速缓冲区,然后将日志写入到磁盘上的“日志页”),再加上我看PPT时比较"囫囵"(只看到前一张PPT,没有往后翻两下看后面一张PPT).因此我觉得PPT的作者在日志的写入顺序上有问题.索性查了一下资料,然后比较深入的思考了日志的写入顺序问题,同时也纠正了一些自己以往的不正确理解. 该文主要包含以下内容: 1.SQL SERRVER 日志管理器的大致工作内容与原理. 2.实例探究SQL SERVER 事务日志的产生与写入磁盘磁盘. 3.一些其它的相关思考. 第一部分:SQL SERVER 日志管理器的大致工作原理. 日志管理器承担着事务日志的编排与写入工作。它维护着一个或多个被称之为“日志缓存”的连续的专用内存区域。由于SQL SERVER 事务日志必须按照一定的格式写入到日志文件中,因此日志缓存中的功能之一就是用来编排日志的格式。而当一个日志缓存区域被占满的时候,还有一个或多个日志缓存区域可以被用来保存新产生的日志记录。

centos7 日志文件

喜夏-厌秋 提交于 2019-11-29 21:33:54
Linux常见的日志文件详述如下 1、/var/log/boot.log(自检过程) 2、/var/log/cron (crontab守护进程crond所派生的子进程的动作) 3、/var/log/maillog (发送到系统或从系统发出的电子邮件的活动) 4、/var/log/syslog (它只记录警告信息,常常是系统出问题的信息,所以更应该关注该文件) 5、/usr/local/apache/logs/error_log(它是记录apache的日志目录) 6、/var/log/httpd/error_log (它是记录http的日志目录) 要让系统生成syslog日志文件, 在/etc/rsyslog.conf文件中加上:*.warning /var/log/syslog    该日志文件能记录当用户登录时login记录下的错误口令、Sendmail的问题、su命令执行失败等信息 5、/var/run/utmp 该日志文件需要使用lastlog命令查看 6、/var/log/wtmp (该日志文件永久记录每个用户登录、注销及系统的启动、停机的事件) last命令就通过访问这个文件获得这些信息 7、/var/run/utmp (该日志文件记录有关当前登录的每个用户的信息) 8、/var/log/xferlog (该日志文件记录FTP会话

Log4net.config 配置

会有一股神秘感。 提交于 2019-11-29 21:23:04
<?xml version="1.0" encoding="utf-8" ?> <configuration> <!-- This section contains the log4net configuration settings --> <log4net> <appender name="RollingLogFileAppender" type="log4net.Appender.RollingFileAppender"> <!--日志文件路径--> <file value="Log/" /> <!--是否是向文件中追加日志--> <appendToFile value="true" /> <rollingStyle value="Composite" /> <!--日志文件名是否是固定不变的--> <staticLogFileName value="false" /> <!--日志文件名格式为:20200220.log--> <datePattern value="yyyyMMdd'.log'" /> <!--log保留天数--> <maxSizeRollBackups value="10" /> <!--最大文件大小--> <maximumFileSize value="20MB" /> <!--信息日志布局--> <layout type="log4net.Layout

log file sync 与 log file parallel write 等待事件

假如想象 提交于 2019-11-29 17:24:46
log file sync(日志文件同步)等待事件具有一个参数:buffer#。在Oracle Database 10g中,这种等待事件位于Commit等待下面。当处理log file sync等待事件时,注意下面的思想: ◎ log file sync 等待时间和事务中指(提交或回滚)相关 ◎ 当进程在log file sync事件上花费大量时间时,这通常表明过多的提交或短事务。 常见的原因、诊断和动作 Oracle 在SGA中的日志缓冲区中记录事务和块的改变,这是成为生理日志(physiological logging)的方法。通过以各种时间进度将内容写入到日志文件,LGWR进程负责在日志缓冲区中留出空间。 触发LGWR进程的条件有: 1. 用户提交 2. 有1/3重做日志缓冲区未被写入磁盘 3. 有大于1M的重做日志缓冲区未被写入磁盘 4. 3秒超时 5. DBWR 需要写入的数据的SCN大于LGWR记录的SCN,DBWR 触发LGWR写入。 触发DBWR进程的条件有: 1. DBWR超时,大约3秒 2. 系统中没有多余的空缓冲区来存放数据 3. CKPT 进程触发DBWR LGWR是负责把Redo Log buffer写入Redo file的进程,当这个进程启动的时候,会把redo buffer里已经有的redo record写入redo file

log file sync(日志文件同步) 与 Log file parallel write 等待事件

╄→尐↘猪︶ㄣ 提交于 2019-11-29 17:21:01
log file sync(日志文件同步) 与 Log file parallel write 等待事件 log file sync(日志文件同步)等待事件具有一个参数:buffer#。在Oracle Database 10g中,这种等待事件位于Commit等待下面。当处理log file sync等待事件时,注意下面的思想: ​ ◎ log file sync 等待时间和事务中指(提交或回滚)相关 ​ ◎ 当进程在log file sync事件上花费大量时间时,这通常表明过多的提交或短事务。 常见的原因、诊断和动作 ​ Oracle 在SGA中的日志缓冲区中记录事务和块的改变,这是成为生理日志(physiological logging)的方法。通过以各种时间进度将内容写入到日志文件,LGWR进程负责在日志缓冲区中留出空间。 触发LGWR进程的条件有: \1. 用户提交 \2. 有1/3重做日志缓冲区未被写入磁盘 \3. 有大于1M的重做日志缓冲区未被写入磁盘 \4. 3秒超时 \5. DBWR 需要写入的数据的SCN大于LGWR记录的SCN,DBWR 触发LGWR写入。 触发DBWR进程的条件有: \1. DBWR超时,大约3秒 \2. 系统中没有多余的空缓冲区来存放数据 \3. CKPT 进程触发DBWR LGWR是负责把Redo Log buffer写入Redo

Linux 根目录爆满 解决(/dev/mapper/centos-root 100%问题)

丶灬走出姿态 提交于 2019-11-29 10:03:34
Zabbix服务器 问题一: 2019年9月12日 发现 Tab键用不了,提示磁盘空间可能满了,所以查看磁盘空间 df -h 查看发现/dev/mapper/centos-root目录占用过高 Cd到根目录下,发现/var文件占用过高,评测可能为日志文件满了。 查看发现zabbix文件占用过高 可以选择备份日志文件,然后情况日志文件 sz 保存到日志文件到桌面,超过4G则不能传输 或者使用ftp软件复制 直接 echo “”>zabbix_server.log 清空日志文件 日志文件还是爆发式增长: 查询原因是日志的记录级别设置有问题,修改debug记录级别为error,后正常。 还可以扩容容量,暂时没做扩容。 参考地址: https://blog.csdn.net/e_wsq/article/details/79531493 来源: https://www.cnblogs.com/llody/p/11512332.html

Laravel日志文件写入失败(permission denied)

删除回忆录丶 提交于 2019-11-29 05:13:52
用过Laravel的小伙伴一开始安装完框架后可能都遇到过daily 日志文件写入失败的问题,接下来我们就来详细说下日志文件写入失败的原因以及对应的解决方案。 在讲这个问题之前可能需要简单介绍下 Linux系统 下的文件的Ownership和Permission。 •Ownership ◦User User是文件的所有者,默认情况下,用户创建了一个文件,该文件的所有者就是该用户。 ◦Group 一个用户组能包含多个用户,所有属于这个组的用户都有相同的权限来访问文件。假设你有一个项目,很多用户都需要访问这个项目文件的权限,你不需要手动赋予这些用户所有权限,你只需要把这些用户加到一个组里面,赋予这些组有访问文件的权限,这样一来就仅仅只有组里面的成员能对文件进行读写操作。 ◦Other 任何其他的用户都能访问文件,因此,给Other用户赋予权限,相当于所有用户都拥有这个权限。 •Permission 在 UNIX/ Linux 系统中每一个文件和目录都有3中权限,以下就是对三个所有者的讨论。 ◦Read:这个权限赋予你打开和读取文件的权限。拥有目录的读权限,你能列出其内容。 ◦Write:拥有了读权限,你能修改文件的内容。拥有了目录的写权限,你能添加、移除以及重命名该目录下的文件。考虑一种场景,当你拥有文件的写权限,但是没有文件存储目录的写权限,你还是能修改文件的内容,但不能重命名

【转】Spark History Server 架构原理介绍

妖精的绣舞 提交于 2019-11-29 04:38:07
【From】 https://blog.csdn.net/u013332124/article/details/88350345 Spark History Server 是spark内置的一个http服务,通过sbin/sbin/start-history-server.sh启动。History Server启动后,会监听一个端口,同时启动两个定时任务线程,分别用来解析eventLog日志文件和清理过期的eventLog日志文件。 Spark History Server启动后,我们可以直接在浏览器输入 http://ip:port 访问。一般默认端口是18080 一、eventLog日志文件以及相关参数 eventLog日志文件介绍 eventLog需要将配置spark.eventLog.enabled设置为true来开启,默认是关闭的。 开启这个配置后,当我们提交spark job到集群中运行时,之后spark job在运行过程中会不断的一些运行信息写到相关的日志文件中。具体的eventLog存放目录由配置spark.eventLog.dir决定的。 Spark job在运行中,会调用EventLoggingListener#logEvent()来输出eventLog内容。spark代码中定义了各种类型的事件,一旦某个事件触发,就会构造一个类型的Event