info

实验9-3 计算平均成绩 (15分)

百般思念 提交于 2020-01-17 13:57:55
实验9-3 计算平均成绩 (15分) 给定N个学生的基本信息,包括学号(由5个数字组成的字符串)、姓名(长度小于10的不包含空白字符的非空字符串)和成绩([0,100]区间内的整数),要求计算他们的平均成绩,并顺序输出平均线以下的学生名单。 输入格式: 输入在一行中给出正整数N(≤10)。随后N行,每行给出一位学生的信息,格式为“学号 姓名 成绩”,中间以空格分隔。 输出格式: 首先在一行中输出平均成绩,保留2位小数。然后按照输入顺序,每行输出一位平均线以下的学生的姓名和学号,间隔一个空格。 输入样例: 5 00001 zhang 70 00002 wang 80 00003 qian 90 10001 li 100 21987 chen 60 输出样例: 80.00 zhang 00001 chen 21987 # include <stdio.h> int main ( ) { int n , i , j , sum = 0 ; scanf ( "%d" , & n ) ; int a [ n ] ; struct cj { char id [ 5 ] ; char name [ 10 ] ; int x ; double y ; } info [ n ] ; for ( i = 0 ; i < n ; i ++ ) { scanf ( "%s %s %d" , info [

虚拟机创建及安装ELK

旧巷老猫 提交于 2020-01-17 10:35:01
1.虚拟机创建 1.1 系统环境 [root@localhost ~]# cat /etc/os-release NAME="CentOS Linux" VERSION="7 (Core)" ID="centos" ID_LIKE="rhel fedora" VERSION_ID="7" PRETTY_NAME="CentOS Linux 7 (Core)" ANSI_COLOR="0;31" CPE_NAME="cpe:/o:centos:centos:7" HOME_URL="https://www.centos.org/" BUG_REPORT_URL=https://bugs.centos.org/ 主机名设置 hostnamectl set-hostname elk [root@elk ~]# hostnamectl Static hostname: elk Icon name: computer-vm Chassis: vm Machine ID: d1d80bc30b414ba7a6e5e49906699d7d Boot ID: 49488ed1b1434c8aa06fca343bf67ccf Virtualization: vmware Operating System: CentOS Linux 7 (Core) CPE OS Name: cpe:/o

linux下保证高可用Java服务化系统高效运行的必备工具脚本

喜你入骨 提交于 2020-01-17 07:49:42
无论是技术开发人员还是架构设计人员都是在实践中成长起来的,他们通过实践进行总结,总结后把经验升华并再次应用到实践中去,进一步提供生产效率。 本文介绍笔者在互联网公司里线上应急和技术攻关过程中积累的应用层脚本和Java虚拟机命令,这些脚本和命令在发现问题和定位问题的过程中起到关键作用,在特定的问题环境下,堪称快速定位问题的小倚天剑以及快速解决问题的微屠龙刀。 本文在介绍脚本和命令之前,先给大家介绍笔者的Linux环境以及在Linux环境下搭建的一个原创Java发号器服务,用来向大家演示脚本和命令的使用方法,力争做到让大家拿来即用的效果。另外,在介绍完所有的脚本和命令之后,我会把所有的命令和脚本收集在一个表格中,便于大家随时参考和使用,并推荐大家把这个表格打印出来放在自己的办公桌上,需要的时候看一眼,便可快速发现和解决问题的工具。 脚本和命令系列主题中计划提供两篇文章,这篇文章是脚本和命令系列主题中的其中一篇,本文聚焦在那些“神奇的”应用层脚本和Java虚拟机命令,曾经在不同程度上帮助笔者在线上应急和技术攻关的过程中解决过不小的问题,通过这篇文章把这些脚本和命令推广给读者,让读者也能够应用在实践中,切实有效的帮助读者解决实际问题。 环境搭建和示例服务启动 首先,使用的Linux版本为: OS:Ubuntu 14.04.2 LTS 内核:3.16.0-30-generic 硬件架构

Pandas学习(数据读取、索引、数据预处理、自定义函数)

こ雲淡風輕ζ 提交于 2020-01-17 05:00:18
Pandas 是python的一个数据分析包,最初由AQR Capital Management于2008年4月开发,并于2009年底开源出来,目前由专注于Python数据包开发的PyData开发team继续开发和维护,属于PyData项目的一部分。Pandas最初被作为金融数据分析工具而开发出来,因此,pandas为时间序列分析提供了很好的支持。 Pandas的名称来自于面板数据(panel data)和python数据分析(data analysis)。panel data是经济学中关于多维数据集的一个术语,在Pandas中也提供了panel的数据类型。 数据结构: Series:一维数组,与Numpy中的一维array类似。二者与Python基本的数据结构List也很相近。Series如今能保存不同种数据类型,字符串、boolean值、数字等都能保存在Series中。 Time- Series:以时间为索引的Series。 DataFrame:二维的表格型数据结构。很多功能与R中的data.frame类似。可以将DataFrame理解为Series的容器。 Panel :三维的数组,可以理解为DataFrame的容器。 Panel4D:是像Panel一样的4维数据容器。 PanelND:拥有factory集合,可以创建像Panel4D一样N维命名容器的模块。 1.数据读取

appium的log详细分析

孤街醉人 提交于 2020-01-16 23:55:48
下面介绍appium日志的大概分析 //启动appium服务成功 2017-03-24 11:22:49:218 - info: [Appium] Welcome to Appium v1.6.3 2017-03-24 11:22:49:221 - info: [Appium] Non-default server args: 2017-03-24 11:22:49:222 - info: [Appium] log: 'C:\\Users\\LXG\\Desktop\\appium.log' 2017-03-24 11:22:49:270 - info: [Appium] Appium REST http interface listener started on 0.0.0.0:4723 //收到从脚本传递的post请求,将desiredCapabilities参数全部传递给服务端 2017-03-24 11:23:57:842 - info: [HTTP] --> POST /wd/hub/session {"capabilities":{"desiredCapabilities":{"app":"C:\\Users\\LXG\\Desktop\ \zhihunew1.apk","noSign":true,"newCommandTimeout":600,

Appium Hybrid混合应用测试——Native切换WebView

ぐ巨炮叔叔 提交于 2020-01-16 23:41:54
Appium H ybrid混合应用测试过程中,经常需要在Native和WebView之间进行切换; 1.切换至WEBVIEW操作; for cons in driver.contexts: if cons.lower().startswith("webview"): driver._switch_to.context(cons) break # 或 cons = driver.contexts # 获取上下文列表 driver._switch_to.context(cons[-1]) 2.切换至NATIVE_APP操作; driver._switch_to.context("NATIVE_APP") 切换WebView时遇到两个问题,导致无法进行 WebView 切换: 【问题1 contexts只能获取NATIVE_APP,无法获取WEBVIEW】 使用uiautomatorviewer定位元素,显示class值为:android.webkit.WebView 但是driver.contexts只打印出了‘NATIVE_APP’; >>> driver.contexts ['NATIVE_APP'] 【解决方案】 需要开启webview远程调试功能, Android 4.4以上,需要在应用代码中增加一下代码段开启该功能 (可由开发人员增加后重新打包给测试):

logging 模块

僤鯓⒐⒋嵵緔 提交于 2020-01-16 23:36:36
日志模块 为什么要写日志 一个卡务系统 : 记录时间 地点 金额 谁在什么时候 删掉了某一个用户 某时某刻登录了系统 检测代码是不是像我们想像的这样执行的 写文件 ,输出到屏幕 f.write,print 时间格式,级别控制,更加便捷 *** logging模块不能自动生成你需要的日志 logging模块的使用 简单配置法 *** 编码问题 logger对象法 ***** 简单配置: # 默认情况下 不打印warning以下级别的信息 默认的日志格式为日志级别:Logger名称:用户输出消息。 import logging logging.debug('debug message') # 调试 logging.info('info message') # 普通信息 logging.warning('warning message') # 警告 logging.error('error message') # 错误信息 logging.critical('critical message')# 严重错误 #WARNING:root:warning message #ERROR:root:error message #CRITICAL:root:critical message import logging logging.basicConfig(level=logging.DEBUG

PHP实现登录,注册,密码修改

╄→尐↘猪︶ㄣ 提交于 2020-01-16 22:16:57
注册,登录,修改密码 1.登录 2.忘记密码 3.免费注册 页面布局 <div id="views" class="views"> <div id="view-login" class="page-view view-login active"> <present name="wxuser"> <div id="wxuser" class="form-group text-center"> <div> <img src="{sh:$wxuser.headimgurl}"> </div> <h4 class="nickname">{sh:$wxuser.nickname}</h4> </div> </present> <!--登录--> <div id="login" class="step"> <h4 class="popup-title login">登录</h4> <div class="go-forget">忘记密码</div> <form class="form-horizontal" role="form" type="get"> <div class="form-group"> <label>手机号码</label> <input type="tel" name="tel" class="form-item" id="tel_num" placeholder=

twisted.internet.error.DNSLookupError: DNS lookup failed: address \"'http:\" not found: [Errno 11001] getaddrinfo failed.解决办法

烈酒焚心 提交于 2020-01-16 18:48:54
C:\Users\wuzhi_000\Desktop\tutorial>scrapy shell 'http://quotes.toscrape.com' 2016-11-02 14:59:11 [scrapy] INFO: Scrapy 1.2.1 started (bot: tutorial) 2016-11-02 14:59:11 [scrapy] INFO: Overridden settings: {'NEWSPIDER_MODULE': 'tutorial.spiders', 'ROBOTSTXT_OBEY': True, 'DUPEFILTER_CLASS': 'scrapy.dupefilters.BaseDupeFilter', 'SPIDER_MODULES': ['tutorial.spiders'], 'BOT_NAME': 'tutorial', 'LOGSTATS_INTERVAL': 0} 2016-11-02 14:59:11 [scrapy] INFO: Enabled extensions: ['scrapy.extensions.telnet.TelnetConsole', 'scrapy.extensions.corestats.CoreStats'] 2016-11-02 14:59:12 [scrapy] INFO: Enabled

Sql server 转 mysql

一笑奈何 提交于 2020-01-16 18:26:55
"Provider=SQLOLEDB.1;Persist Security Info=False;User ID=;PassWord=;Initial Catalog=;Data Source=" Provider=SQLOLEDB.1 ------打开数据库用oledb的方式连接 Persist Security Info ----是否保存安全信息 User ID-------------------用户名 PassWord------------------密码 Initial Catalog-----------数据库的名称或者数据库ip或者目录 Data Source---------------数据源 来源: 51CTO 作者: 791165566 链接: https://blog.51cto.com/791165566/2416741