log4j

log4j2 日志框架小记

独自空忆成欢 提交于 2020-02-24 21:13:40
这两天开始学习日志框架了, 把常用的学习一下,记录一下。上篇日志写了log4j----- https://www.cnblogs.com/qiaoyutao/p/10995895.html 今天就总结一下log4j2。 错误之处,烦清不吝批评指正。 版权所有,转载注明出处 先来说一下log4j2的特点,根据官方说法,有以下特征。  1. API分离   可以与Log4j实现一起使用,但也可以在其他日志实现(如Logback)之前使用, Log4j2 API与SLF4J相比有几个优点:1。Log4j2 API支持记录 消息 而不只是字符串。 2. Log4j2 API支持lambda表达式。 3. Log4j2 API提供了比SLF4J更多的日志记录方法。 4.除了SLF4J支持的“参数化日志记录”格式之外,Log4j2 API还支持使用java.text.MessageFormat语法以及printf-sytle消息的事件。 5. Log4j2 API提供了LogManager.shutdown()方法。 底层日志记录实现必须实现Terminable接口才能使方法生效。 2. 性能    Log4j 2包含基于LMAX Disruptor库的下一代异步记录器。 在多线程场景中,异步记录器的吞吐量比Log4j 1.x和Logback高18倍,延迟低,Log4j 2明显优于Log4j

log4j2 配置入门

三世轮回 提交于 2020-02-24 21:07:23
(1)根节点Configuration有两个属性:status和monitorinterval,有两个子节点:Appenders和Loggers(表明可以定义多个Appender和Logger). status用来指定log4j本身的打印日志的级别. monitorinterval用于指定log4j自动重新配置的监测间隔时间,单位是s,最小是5s.(如果更改配置文件,不用重启系统) (2)Appenders节点,常见的有三种子节点:Console、RollingFile、File. Console节点用来定义输出到控制台的Appender. name:指定Appender的名字. target:SYSTEM_OUT 或 SYSTEM_ERR,一般只设置默认:SYSTEM_OUT. PatternLayout:输出格式,不设置默认为:%m%n. File节点用来定义输出到指定位置的文件的Appender. name:指定Appender的名字. fileName:指定输出日志的目的文件带全路径的文件名. PatternLayout:输出格式,不设置默认为:%m%n. RollingFile节点用来定义超过指定大小自动删除旧的创建新的的Appender. name:指定Appender的名字. fileName:指定输出日志的目的文件带全路径的文件名. PatternLayout

MyBatis-日志、分页、缓存

非 Y 不嫁゛ 提交于 2020-02-24 20:07:35
日志 如果一个数据库的操作出现了异常,这时候我们需要排错,日志就是最好的助手。 之前使用的是输出语句或者debug。现在使用的是日志工厂。 在MyBatis中具体使用哪一个日志实现,在设置中进行设定即可。在设定的时候注意区分大小写。 STDOUT_LOGGING STDOUT_LOGGING标准日志输出。 在MyBatis核心配置文件中,配置日志。 < settings > < setting name = " logImpl " value = " STDOUT_LOGGING " /> </ settings > Log4j Log4j 是Apache的一个开源项目,通过使用Log4j,我们可以控制日志信息输送的目的地是控制台、文件、GUI组件。 我们可以控制每一条日志的输出格式。 通过定义每一条日志信息的级别,我们能够更加细致地控制日志的生成过程。 通过一个配置文件来灵活地进行配置,而不需要修改应用的代码。 1、导入log4j的包 < dependency > < groupId > log4j </ groupId > < artifactId > log4j </ artifactId > < version > 1.2.17 </ version > </ dependency > 2、编写 log4j.properties

Jquery 数组操作

陌路散爱 提交于 2020-02-22 21:01:27
04.AdminLTE的基本介绍 05.SSM整合案例的基本介绍 06.产品操作 07.订单操作 08.用户操作 09.权限控制 10.权限关联与控制 11.AOP日志 06.产品操作 SSM 环境搭建与产品操作 1.数据库与表结构介绍 PLSQL Developer 13 是一个集成开发环境,专门面向Oracle数据库存储程序单元的开发PL/SQL Developer侧重于易用性、代码品质和生产力 。 连接数据库的配置 解决中文??乱码 在maven bin目录下运行以下命令: mvn install:install-file -DgroupId=com.oracle -DartifactId=ojdbc14 -Dversion=10.2.0.1.0 -Dpackaging=jar -Dfile=D:\mnt\ojdbc14-10.2.0.1.0.jar 以上地址信息部分,请根据本地jar包的信息自行修改。 创建用户与授权 数据库我们使用 Oracle -- 用户名 ssm08 -- 登录密码 itheima -- Create the user create user SSM08 identified by itheima; -- Grant/Revoke role privileges grant connect to SSM08; grant resource to

Spring application without web.xml log4j configuration

谁都会走 提交于 2020-02-22 07:51:06
问题 I have a Spring + Jersey web application that I'm migrating from a web.xml to annotation base configuration. I'm implementing WebApplicationInitializer and everything works except log4j, because I have a custom file name. In the web.xml I had <context-param> <param-name>log4jConfiguration</param-name> <param-value>/WEB-INF/custom-name-log4j.xml</param-value> </context-param> This worked. Now, I tried to do the same in Java: container.setInitParameter("log4jConfiguration", "/WEB-INF/custom

zookeeper日志各类日志简介

こ雲淡風輕ζ 提交于 2020-02-22 05:09:22
zookeeper服务器会产生三类日志:事务日志、快照日志和log4j日志。 在zookeeper默认配置文件zoo.cfg(可以修改文件名)中有一个配置项dataDir,该配置项用于配置zookeeper快照日志和事务日志的存储地址。在官方提供的默认参考配置文件zoo_sample.cfg中,只有dataDir配置项。其实在实际应用中,还可以为事务日志专门配置存储地址,配置项名称为dataLogDir,在zoo_sample.cfg中并未体现出来。在没有dataLogDir配置项的时候,zookeeper默认将事务日志文件和快照日志文件都存储在dataDir对应的目录下。建议将事务日志(dataLogDir)与快照日志(dataLog)单独配置,因为当zookeeper集群进行频繁的数据读写操作是,会产生大量的事务日志信息,将两类日志分开存储会提高系统性能,而且,可以允许将两类日志存在在不同的存储介质上,减少磁盘压力。log4j用于记录zookeeper集群服务器运行日志,该日志的配置地址在conf/目录下的log4j.properties文件中,该文件中有一个配置项为“zookeeper.log.dir=.”,表示log4j日志文件在与执行程序(zkServer.sh)在同一目录下。当执行zkServer.sh 时,在该文件夹下会产生zookeeper.out日志文件

mybatis-SecondLevel-Cache-annotation

雨燕双飞 提交于 2020-02-21 18:56:30
mybatis-SecondLevel-Cache-annotation 1.pom < ? xml version = "1.0" encoding = "UTF-8" ? > < project xmlns = "http://maven.apache.org/POM/4.0.0" xmlns : xsi = "http://www.w3.org/2001/XMLSchema-instance" xsi : schemaLocation = "http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd" > < modelVersion > 4.0 .0 < / modelVersion > < groupId > com . lq < / groupId > < artifactId > mybatis - annotation < / artifactId > < version > 1.0 - SNAPSHOT < / version > < packaging > jar < / packaging > < dependencies > < dependency > < groupId > org . mybatis < / groupId > < artifactId >

Zookeeper修改运行日志zookeeper.out输出路径

99封情书 提交于 2020-02-20 10:18:47
前言 Zookeeper中运行日志 zookeeper.out 文件的输出路径默认为启动脚本的当前路径,导致Zookeeper集群启动失败时总是不记得输出日志在哪儿,不便于查找错误原因,因此很有必要设置固定路径来保存运行日志 在本次实验之前已经将 dataDir 和 dataLogDir 分别设置为 $ZOOKEEPER_HOME/zkData 和 $ZOOKEEPER_HOME/logs/transaction ,都是在 $ZOOKEEPER_HOME/conf/zoo.cfg 中配置。值得注意的是在此 zoo.cfg 文件中配置必须使用 绝对路径 ,不能使用环境变量 $ZOOKEEPER_HOME ,此处是为了描述方便才使用此变量名 本次实验将把运行日志文件 zookeeper.out 输出路径指定为 $ZOOKEEPER_HOME/logs/runtime/ 路径下 简单配置 修改 $ZOOKEEPER_HOME/bin/zkEnv.sh 将 ZOO_LOG_DIR 设置成自定义路径,本次设置为 $ZOOBINDIR/../logs/runtime ,其中 ZOOBINDIR 变量是此脚本开头获取的Zookeeper的bin路径,我们直接以此来定位自己的日志路径即可。具体如下: # 修改前 54 if [ "x ${ZOO_LOG_DIR} " = "x" ] 55 then

Hadoop基础---MapReduce实现

牧云@^-^@ 提交于 2020-02-19 09:17:35
一:MapReduce思想 (一)MapReduce解决的问题 1.如何实现将代码分发到集群中节点中,并且如何运行起来 2.将代码分发到哪些指定机器中运行 3.实时监控节点运行情况 4.结果如何汇总 总之:将我们简单的业务逻辑很方便的扩展到海量数据环境下的进行分布式运算 (二) MapReduce基本概念和程序编写逻辑 MapReduce的程序执行流程分为两个阶段:Mapper阶段和Reducer阶段 其中Mapper阶段包括: 1>指定输入文件的路径,并将输入文件在逻辑上切分成若干个split数据片。随后对输入切片按照一定的规则解析成键值对<k1,v1>,其中k1就是我们常说的起始偏移量,v1就是行文本的内容。 2>调用自己编写的map函数,将输入的键值对<k1,v1>转化成键值对<k2,v2>,其中每一个键值对<k1,v1>都会调用一次map函数。 3>对输出的键值对<k2,v2>进行分区、排序、分组,其中分组就是相同的key的value放到同一个集合当中。 4>(可选)对分组后的数据进行本地归并处理(combiner)。 其中Reducer阶段包括: 5>对多个Mapper任务的输出,按照不同的分区,通过网络拷贝到不同的Reducer节点上进行处理,随后对多个Mapper任务的输出进行合并,排序。 6>调用自己编写的reduce函数,将输入的键值对<k2,v2s>转化成键值对

hadoop本地调试方法

坚强是说给别人听的谎言 提交于 2020-02-19 08:51:07
  Mapreduce 是Hadoop上一个进行分布式数据运算和统计的框架,但是每次运行程序的时候都需要将程序打包并上传的集群环境中运行,这就会让程序的调试变得十分不方便。所以在这里写下这篇博客和大家交流学习如何在本地调试Mapreduce程序。     本地是windows系统,文件路径也是本地   首先需要将编译后的windos 放入解压后的hadoop解压包的bin目录下,还有hadoop,dll文件不同版本的windows对应的winutils.exe是不同的。具体编译方法,网上可以找到相关教程 这里就不详说了。当然网上也有好心人编译好的,来后就能用。   然后将hadoop的HADOOP_HOME配置到环境变量中去。在PATH中配置PATH=“%HADOOP—HOME\bin%”;   可能有些同学运行程序后仍会包报错NullPointException。需要将bin目录下的hadoop.dll考到C盘的system32下一份。 再次运行,非常好。   在本地运行需要配置两个参数    conf.set( "mapred.job.tracker", "local"); conf.set( "fs.default.name", "local"); 其实这两个参数也可以不用配置,因为系统默认的就是本地 package worldcount; import java.io