log文件

tensorflow/core/platform/cpu_feature_guard.cc:141] Your CPU supports instructions that this TensorFlow binary was not compiled to use: AVX2

不羁岁月 提交于 2019-11-29 18:22:50
您的CPU支持未编译此TensorFlow二进制文件以使用的指令:AVX2 如果是初学者 或者 没有太大计算速度的需求,在开头加上这两行忽略这个提示即可 import os os .environ [ 'TF_CPP_MIN_LOG_LEVEL' ] = '2' 说明: os.environ["TF_CPP_MIN_LOG_LEVEL"] = '1' # 默认,显示所有信息 os.environ["TF_CPP_MIN_LOG_LEVEL"] = '2' # 只显示 warning 和 Error os.environ["TF_CPP_MIN_LOG_LEVEL"] = '3' # 只显示 Error 来源: https://www.cnblogs.com/xin-qing3/p/11525861.html

ORACLE AWR报告之 log file sync等待事件优化的总结【转自ITPUB】

社会主义新天地 提交于 2019-11-29 17:25:53
来自白大师(白鳝)对log file sync等待事件优化的总结,供各位puber们学习参考: 一、  log file sync平均等待事件时间超过7ms,如果等待时间过长,说明log write每次写入的时间过长,如果能够优化redo日志文件存储,使之存放在更快的磁盘上,就可以减少这个等待事件的单次等待时间。(RAID 5--> RAID 10)  当无法通过优化redo日志的I/O性能来解决问题,或者优化了redo日志的I/O性能后还是无法达到我们的预期,那么该如何处理呢? 二、 有经验的DBA可能会建议加大日志缓冲区(log buffer)。提到加大日志缓冲区,可能有些朋友就会感到疑惑,redo日志文件写等待时间长怎么会和日志缓存冲区直接关联起来呢?实际上这个问题解释 起来一点也不难,如果数据文件的I/O性能有问题,平均单块读的等待时间偏长,那么通过加大db cache来减少I/O总次数,从而达到优化I/O的效果。加大日志缓存区的原理也是一样的,这样可以使 日志缓存中的存储更多的redo日志数据,从而减少由于redo日志缓存区不足而产生lgwr写操作的数量,使平均每次写入redo日志文件 的redo字节数增加,从而减少redo的I/O次数,进而达到优化log file sync等待事件的目的。  三、如果上述两种方法都不行时,还有一种方法:就是减少提交的次数

log file sync等待事件

独自空忆成欢 提交于 2019-11-29 17:20:42
  上图非常清楚的表述了单实例模式下用户提交操作的处理过程,从图中可以看出正常情况下log file sync事件的大部分时间被log file parallel write占据,除此之外,还有一部分时间消耗在cpu调度上面,如下图: 从上图可以看出,如果cpu资源紧张也会造成log file sync等待时间的延长。 来自吕大师(vage )对log file sync等待事件优化的总结, 供各位puber们学习参考: 1、Log File Sync是从提交开始到提交结束的时间。Log File Parallel Write是LGWR开始写Redo File到Redo File结束的时间。明确了这一点,可以知道,Log file sync 包含了log file parallel write。所以,log file sync等待时间一出,必先看log file parallel write。如果log file sync平均等待时间(也可称为提交响应时间)为20ms,log file parallel write为19ms,那么问题就很明显了,Redo file I/O缓慢,拖慢了提交的过程。 2、 Log File Sync的时间不止log file parallel write。服务器进程开始提交,到通知LGWR写Redo,LGWR写完Redo通知进程提交完毕

postgres csv日志和查看用户权限

喜欢而已 提交于 2019-11-29 15:34:50
postgres csv日志和查看用户权限 最近在使用postgres 时遇到的2个问题,顺便记录一下查到的比较好的资料。 怀疑postgres在执行SQL时报错,程序日志中有无明确异常信息。通过查看csv日志来确定是否SQL真的是执行时报错。 下面转自: https://www.cnblogs.com/kuang17/p/6902122.html?utm_source=itdadao&utm_medium=referral   日志审计   审计是值记录用户的登陆退出以及登陆后在数据库里的行为操作,可以根据安全等级不一样设置不一样级别的审计,   此处涉及的参数文件有:   logging_collector --是否开启日志收集开关,默认off,开启要重启DB   log_destination --日志记录类型,默认是stderr,只记录错误输出   log_directory --日志路径,默认是$PGDATA/pg_log, 这个目录最好不要和数据文件的目录放在一起, 目录需要给启动postgres的操作系统用户写权限.   log_filename --日志名称,默认是postgresql-%Y-%m-%d_%H%M%S.log   log_file_mode --日志文件类型,默认为0600   log_truncate_on_rotation --默认为off

Nginx部署!

旧巷老猫 提交于 2019-11-29 13:23:06
一:使用Nginx搭建虚拟主机服务器时,每个虚拟WEB站点拥有独立的"server {}"配置段,各自监听的IP地址、端口号可以单独指定,当然网站名称也是不同的。 二:虚拟机的分类: 1:基于域名虚拟主机(一个ip地址对应多个域名,不同域名就是不同的站点,其内容也不一样) 2:基于端口虚拟主机(服务器只有一个ip地址,不同端口就是不同的站点,其内容也不一样) 3:基于ip虚拟主机(服务器有多个ip地址,不同ip就是不同的站点,其内容也不一样) 二:nginx -t 用于检测配置文件语法 如下报错1:配置文件43行出现错误 [root@www ~]# nginx -t nginx: [emerg] "location" directive is not allowed here in /usr/local/nginx/conf/nginx.conf:43 nginx: configuration file /usr/local/nginx/conf/nginx.conf test failed 如下错误2:worker里面工作区出现问题 [root@www ~]# nginx -t nginx: the configuration file /usr/local/nginx/conf/nginx.conf syntax is ok nginx: [warn] 10240 worker

强大的strace命令用法详解

会有一股神秘感。 提交于 2019-11-29 13:19:24
强大的strace命令用法详解 文章转自: https://www.linuxidc.com/Linux/2018-01/150654.htm   strace是什么?   按照strace官网的描述, strace是一个可用于诊断、调试和教学的Linux用户空间跟踪器。我们用它来监控用户空间进程和内核的交互,比如系统调用、信号传递、进程状态变更等。 strace底层使用内核的ptrace特性来实现其功能。   在运维的日常工作中,故障处理和问题诊断是个主要的内容,也是必备的技能。strace作为一种动态跟踪工具,能够帮助运维高效地定位进程和服务故障。它像是一个侦探,通过系统调用的蛛丝马迹,告诉你异常的真相。   strace能做什么?   运维工程师都是实践派的人,我们还是先来个例子吧。   我们从别的机器copy了个叫做some_server的软件包过来,开发说直接启动就行,啥都不用改。可是尝试启动时却报错,根本起不来!   启动命令:   ./some_server ../conf/some_server.conf   输出:   FATAL: InitLogFile failed iRet: -1!   Init error: -1655   为什么起不来呢?从日志看,似乎是初始化日志文件失败,真相到底怎样呢?我们用strace来看看。   strace -tt -f .

专职DBA-MySQL日志管理2

让人想犯罪 __ 提交于 2019-11-29 12:35:21
专职DBA-MySQL日志管理2 [root@db01 ~]# mysqld --defaults-file=/data/mysql/3306/my.cnf & [root@db01 ~]# ps -ef | grep mysql [root@db01 ~]# netstat -lnp | grep mysql [root@db01 ~]# mysql -S /data/mysql/3306/mysql.sock -p 错误日志(log_error): 文本形式记录MySQL启动,关闭,日常运行过程中所有状态信息,警告,错误。 错误日志配置,默认就是开启的:/数据目录下/hostname.err 手工设定: mysql> select @@log_error; +----------------------------+ | @@log_error | +----------------------------+ | /data/mysql/3306/error.log | +----------------------------+ 1 row in set (0.01 sec) mysql> show global variables like "log_error"; [root@db01 ~]# grep "log_error" /data/mysql/3306/my

专职DBA-Xtrabackup物理备份恢复

不问归期 提交于 2019-11-29 12:19:22
专职DBA-Xtrabackup物理备份恢复 Xtrabackup是Percona公司专门针对MySQL数据库开发的一款开源免费的物理热备工具。 可以对InnoDB和XtraDB事物引擎的数据库实现非阻塞(即不锁表)方式备份。 可以对MyISAM非事物引擎实现锁表方式备份。 1.Xtrabackup的主要特点: 直接复制物理文件,备份恢复数据速度快,安全可靠。 备份期间执行的事物不会间断,备份InnoDB数据不会影响业务。 备份期间不会增加太多数据库的性能压力。 支持对备份的数据进行自动校验。 支持全量、增量、压缩备份及流备份。 支持在线迁移表以及快速创建新的从库。 支持几乎所有版本的MySQL分支。 2.首先你要理解数据库里面的几个数据文件: .idb文件 以独立表空间存储的InnoDB引擎类型的数据文件。 .ibdata文件 以共享表空间存储的InnoDB引擎类型的数据文件。 .frm文件 存放与表相关的元数据(meta)信息以及表结构的定义信息。 .MYD文件 存放MyISAM引擎表的数据文件。 .MYI文件 存放MyISAM引擎的索引信息文件。 3.事务型引擎的ACID特性 MySQL的InnoDB是事务型引擎。 MariaDB的XtraDB是事务型引擎。 事务型引擎的共同特性:4个 原子性:事务的所有SQL语句操作,要么全部成功,要么全部失败。 一致性

限定某个目录禁止解析php,限制user_agent, php相关配置

吃可爱长大的小学妹 提交于 2019-11-29 11:01:23
限定某个目录禁止解析php: 对于使用php语言编写的网站,有一些目录是有需求上传文件的。如果网站代码有漏洞,让黑客上传了一个用PHP写的木马,由于网站可以执行PHP程序,最终会让黑客拿到服务器权限。 为了避免这种情况发生,我们需要把能上传文件的目录直接禁止解析PHP代码 1. 编辑虚拟主机配置 #进入虚拟主机配置文件 [root@aminglinux 111.com]# vim /usr/local/apache2.4/conf/extra/httpd-vhosts.conf #增加下列配置 <Directory /data/wwroot/111.com/upload> //把upload目录下所有的php禁止解析 php_admin_flag engine off //表示禁止解析php ## 增加下面的(两个F之间的)后,所有访问php都会是403 <FilesMatch (.*)\.php(.*)> Order allow,deny Deny from all </FilesMatch> </Directory> 2. 检查读写并重启服务 [root@aminglinux 111.com]# /usr/local/apache2.4/bin/apachectl -t Syntax OK [root@aminglinux 111.com]# /usr/local

python+requests接口自动化测试框架实例详解

半腔热情 提交于 2019-11-29 10:19:58
前段时间由于公司测试方向的转型,由原来的web页面功能测试转变成接口测试,之前大多都是手工进行,利用postman和jmeter进行的接口测试,后来,组内有人讲原先web自动化的测试框架移驾成接口的自动化框架,使用的是java语言,但对于一个学java,却在学python的我来说,觉得python比起java更简单些,所以,我决定自己写python的接口自动化测试框架,由于本人也是刚学习python,这套自动化框架目前已经基本完成了,于是进行一些总结,便于以后回顾温习, 有许多不完善的地方,也 遇到了许多的问题,希望大神们多多指教 。 下面我就进行今天的主要内容吧。(初学者的成功之路,哈哈哈~~) 1、首先,我们先来理一下思路。 正常的接口测试流程是什么? 脑海里的反应是不是这样的: 确定测试接口的工具 —> 配置需要的接口参数 —> 进行测试 —> 检查测试结果(有的需要数据库辅助) —> 生成测试报告(html报告) 那么,我们就根据这样的过程来一步步搭建我们的框架。在这个过程中,我们需要做到业务和数据的分离,这样才能灵活,达到我们写框架的目的。只要好好做,一定可以成功。这也是我当初对自己说的。 接下来,我们来进行结构的划分。 我的结构是这样的,大家可以参考下: ​​​​​​ common:存放一些共通的方法 result:执行过程中生成的文件夹,里面存放每次测试的结果