log文件

mysql面试题三

帅比萌擦擦* 提交于 2019-12-03 07:23:44
1、MySQL的复制原理以及流程 (1)、复制基本原理流程 1. 主:binlog线程——记录下所有改变了数据库数据的语句,放进master上的binlog中; 2. 从:io线程——在使用start slave 之后,负责从master上拉取 binlog 内容,放进 自己的relay log中; 3. 从:sql执行线程——执行relay log中的语句; (2)、MySQL复制的线程有几个及之间的关联 MySQL 的复制是基于如下 3 个线程的交互( 多线程复制里面应该是 4 类线程): 1. Master 上面的 binlog dump 线程,该线程负责将 master 的 binlog event 传到slave; 2. Slave 上面的 IO 线程,该线程负责接收 Master 传过来的 binlog,并写入 relay log; 3. Slave 上面的 SQL 线程,该线程负责读取 relay log 并执行; 4. 如果是多线程复制,无论是 5.6 库级别的假多线程还是 MariaDB 或者 5.7 的真正的多线程复制, SQL 线程只做 coordinator,只负责把 relay log 中的 binlog读出来然后交给 worker 线程, woker 线程负责具体 binlog event 的执行; (3)

MySQL | 查看log日志

时间秒杀一切 提交于 2019-12-03 06:42:56
1. 进入mysql 1 mysql -u用户名 -p密码 2. 开启日志 1 et global general_log=on; 3. 查看mysql日志文件的路径 1 show variables like 'general_log_file'; 4. 在终端中查看日志文件( 提示权限不够在前面加sudo 使用超级管理员权限) 1 tail -f 文件路径 注: tail :查看文件内容-f:循环读取,跟踪文件的内容变动,更新了就会实时显示 来源: https://www.cnblogs.com/ykit/p/11781080.html

MySQL面试题

不想你离开。 提交于 2019-12-03 01:47:04
1、MySQL的复制原理以及流程 (1)、复制基本原理流程 1. 主:binlog线程——记录下所有改变了数据库数据的语句,放进master上的binlog中; 2. 从:io线程——在使用start slave 之后,负责从master上拉取 binlog 内容,放进 自己的relay log中; 3. 从:sql执行线程——执行relay log中的语句; (2)、MySQL复制的线程有几个及之间的关联 MySQL 的复制是基于如下 3 个线程的交互( 多线程复制里面应该是 4 类线程): 1. Master 上面的 binlog dump 线程,该线程负责将 master 的 binlog event 传到slave; 2. Slave 上面的 IO 线程,该线程负责接收 Master 传过来的 binlog,并写入 relay log; 3. Slave 上面的 SQL 线程,该线程负责读取 relay log 并执行; 4. 如果是多线程复制,无论是 5.6 库级别的假多线程还是 MariaDB 或者 5.7 的真正的多线程复制, SQL 线程只做 coordinator,只负责把 relay log 中的 binlog读出来然后交给 worker 线程, woker 线程负责具体 binlog event 的执行; (3)

高可用的MongoDB集群

匿名 (未验证) 提交于 2019-12-03 00:40:02
1.序言   MongoDB 是一个可扩展的高性能,开源,模式自由,面向文档的数据库。 它使用 C++编写。MongoDB 包含一下特点: l? 面向集合的存储:适合存储对象及JSON形式的数据。 l? 动态查询:Mongo 支持丰富的查询方式,查询指令使用 JSON 形式的标记,可轻易查询文档中内嵌的对象及数组。 l? 完整的索引支持:包括文档内嵌对象及数组。Mongo 的查询优化器会分析查询表达式,并生成一个高效的查询计划。 l? 查询监视:Mongo包含一个监控工具用于分析数据库操作性能。 l? 复制及自动故障转移:Mongo 数据库支持服务器之间的数据复制,支持主-从模式及服务器之间的相互复制。复制的主要目的是提供冗余及自动故障转移。 l? 高效的传统存储方式:支持二进制数据及大型对象(如:照片或图片)。 l? 自动分片以支持云级别的伸缩性:自动分片功能支持水平的数据库集群,可动态添加额外的机器。 2.背景   MongoDB 的主要目标是在键值对存储方式(提供了高性能和高度伸缩性) 以及传统的 RDBMS(关系性数据库)系统,集两者的优势于一身。Mongo 使用 一下场景: l? 网站数据:Mongo 非常适合实时的插入,更新与查询,并具备网站实时数据存储所需的复制及高度伸缩性。 l? 缓存:由于性能很高,Mongo 也适合作为信息基础设施的缓存层。在系统重启之后,由

Xinetd服务的安装与配置

匿名 (未验证) 提交于 2019-12-03 00:40:02
Xinetd服务的安装与配置 http://blog.chinaunix.net/uid-21411227-id-1826885.html 1 .什么是 xinetd xinetd 即 extended internet daemon , xinetd 是新一代的网络守护进程服务程序,又叫超级 Internet 服务器。经常用来管理多种轻量级 Internet 服务。 xinetd 提供类似于 inetd+tcp_wrapper 的功能,但是更加强大和安全。 2. xinetd 的特色 1 ) 强大的存取控制功能 ― 内置对恶意用户和善意用户的差别待遇设定。 ― 使用 libwrap 支持,其效能更甚于 tcpd 。 ― 可以限制连接的等级,基于主机的连接数和基于服务的连接数。 ― 设置特定的连接时间。 ― 将某个服务设置到特定的主机以提供服务。 2 ) 有效防止 DoS 攻击 ― 可以限制连接的等级。 ― 可以限制一个主机的最大连接数,从而防止某个主机独占某个服务。 ― 可以限制日志文件的大小,防止磁盘空间被填满。 3 ) 强大的日志功能 ― 可以为每一个服务就 syslog 设定日志等级。 ― 如果不使用 syslog ,也可以为每个服务建立日志文件。 ― 可以记录请求的起止时间以决定对方的访问时间。 ― 可以记录试图非法访问的请求。 4 ) 转向功能

Informatica_(6)性能调优

匿名 (未验证) 提交于 2019-12-03 00:40:02
六、实战汇总 31.powercenter 字符集 了解源或者目标数据库的字符集,并在Powercenter服务器上设置相关的环境变量或者完成相关的设置,不同的数据库有不同的设置方法; 多数字符集的问题,需要源读和目标写分开来考虑,而不是混为一谈。 31.1 oracle字符集 获取Oracle数据库字符集, 以sys用户登录,select value$ from props$ where name=‘NLS_CHARACTERSET‘; 返回数据库本身的字符集 --ZHS16GBK 设置Oracle环境变量, Windows平台需要在注册表或者环境变量中设置; Linux平台需要修改Profile文件。 使用NLS_LANG=AMERICAN_AMERICA.ZHS16GBK设置 数据库字符集与NLS_LANG不一致时, 以写入字符集NLS_LANG为准,即设置Powercenter服务器环境变量为NLS_LANG=AMERICAN_AMERICA.ZHS16GBK 数据源有两个Oracle数据库,但字符集不一致时, 创建两个集成服务,在集成服务分别设置与对应数据库相同的字符集。 数据源和目标都是Oracle数据库,但字符集不一致时, 源使采用Native驱动,使用NLS_LANG; 目标采用ODBC驱动,在odbc.ini文件中设置对应的字符集信息。 31.2 db2字符集

Tomcat安装部署和安全加固优化以及反向代理应用

匿名 (未验证) 提交于 2019-12-03 00:40:02
1、Tomcat介绍 Tomcat是Apache软件基金会(Apache Software Foundation)的Jakarta 项目中的一个核心项目,由Apache、Sun和其他一些公司及个人共同开发而成。 Tomcat服务器是一个免费的开放源代码的Web应用服务器,属于轻量级应用服务器,在中小型系统和并发访问用户不是很多的场合下被普遍使用,是开发和调试JSP程序的首选。 Tomcat和Nginx、Apache(httpd)、lighttpd等Web服务器一样,具有处理HTML页面的功能,另外它还是一个Servlet和JSP容器,独立的Servlet容器是Tomcat的默认模式。不过,Tomcat处理静态HTML的能力不如Nginx/Apache服务器。 2、Tomcat安装部署和配置 (1)tomcat下载和解压 [root@linux-node1 ~]# ll apache-tomcat- 8.0 . 50 . tar .gz jdk-8u161-linux-x64. tar .gz -rw-r--r-- 1 root root 9417189 3月 17 11 : 27 apache-tomcat- 8.0 . 50 . tar .gz -rw-r--r-- 1 root root 189756259 3月 17 11 : 51 jdk-8u161-linux-x64.

springboot 配置mybatis打印sql

匿名 (未验证) 提交于 2019-12-03 00:39:02
方式 一: ######################################################## ###配置打印sql ######################################################## logging: level: com.threefivework.mymall.dao.mapper: DEBUG //包路径为mapper文件包路径 方式二: 在application.yml(.properties)中增加配置,在控制台打印sql: mybatis configuration: log-impl: org .apache .ibatis .logging .stdout .StdOutImpl 参考类:org.apache.ibatis.session.Configuration log-impl指定的值为org.apache.ibatis.logging.Log接口的某个实现类 原文:https://www.cnblogs.com/kingsonfu/p/9245731.html

数据挖掘学习(三)――文本挖掘

匿名 (未验证) 提交于 2019-12-03 00:38:01
对情感进行分析,对评论数据进行相应的分析。 可以用结巴进行分词,主要是划分各文本之间的关系,进行分词操作。 Dict.txt是指结巴使用的分词,也可以自己定义相应的结巴词典,也可以下载一些好用的词典。 第一个参数:我们的词汇; 第二个参数:词频(即重要的程度); 第三个参数:词性 1)使用jieba进行分词: #!/usr/bin/env python # _*_ UTF-8 _*_ import jieba sentence = " 我喜欢东方明珠 " # cut_all=True :为全模式。 # cut_all=FALSE :精准模式。 words = jieba.cut(sentence , cut_all = True ) print (words) # 全模式分词,用的是循环才能获取相应的结果,如果直接 print 则显示不成功。 for item in words: print (item) print ( "----------------" ) # 精准模式分词。 words2 = jieba.cut(sentence , cut_all = False ) for item in words2: print (item) print ( "----------------" ) # 搜索引擎分词: words3 = jieba.cut_for_search

centos下apache服务器以及Tomcat的配置

匿名 (未验证) 提交于 2019-12-03 00:34:01
环境我用的是Centos7,apache2.4 首先,执行yum install httpd命令下载安装apache 装好之后进入/etc/httpd/conf目录,修改httpd.conf文件(修改之间最好先备份) 我是把原先配置文件中暂时用不上的都给去掉了,最终httpd.conf文件的内容如下: #apache的精简配置文件 IncludeOptional conf.d/*.conf Include conf.modules.d/*.conf Include conf/virtualhost.conf #Include conf/mod_jk.conf #配置文件的根目录,即加载外部的配置文件会自动加上根目录前缀 ServerRoot "/etc/httpd" User apache Group apache #首页相关的配置 <IfModule dir_module> DirectoryIndex index.html index.jpg </IfModule> LogLevel warn <IfModule log_config_module> LogFormat "%h %l %u %t \"%r\" %>s %b \"%{Referer}i\" \"%{User-Agent}i\"" combined LogFormat "%h %l %u %t \"%r\" %>s