axis

pandas的拼接操作 --- pandas.concat()级联

匿名 (未验证) 提交于 2019-12-03 00:30:01
pandas拼接分为级联(pandas.concat,pandas.append) 以及合并(pandas.merge,,pandas.join) # 导入模块、别名 import numpy as np import pandas as pd from pandas import Series,DataFrame # 定义生成DataFrame的函数: def make_df (cols,index) : data = {col:[str(col)+str(ind) for ind in index] for col in cols} df = DataFrame(data = data,columns = cols ,index = index ) return df df1 = make_df([ 'a' , 'b' , 'c' ],[ 1 , 2 , 3 ]) # 输出 a b c 1 a1 b1 c1 2 a2 b2 c2 3 a3 b3 c3 df2 = make_df([ 'a' , 'b' , 'c' ],[ 4 , 5 , 6 ]) # 输出 a b c 4 a4 b4 c4 5 a5 b5 c5 6 a6 b6 c6 pandas使用pandas.concat函数,与numpy.concatenate函数类似,只是多了一些参数: pandas . concat

pandas之基本功能

匿名 (未验证) 提交于 2019-12-03 00:29:01
pandas 的官方文档: http://pandas.pydata.org/pandas-docs/stable/indexing.html 重新索引 新对象 ,会根据新索引对原数据进行重排, 如果是新引入的索引,则会引入缺失值(也可用 fill_value 指定填充值)。 reindex 的函数参数: index New sequence to use as index. Can be Index instance or any other sequence-like Python data structure. An method Interpolation (fill) method, see table for options. fill_value Substitute value to use when introducing missing data by reindexing limit level copy Do not copy underlying data if new index is equivalent to old index. True by default (i.e. always copy data). # obj.reindex(['a','b','c','d','e'],fill_value=0) dtype: float64

Spring boot application with apache axis

纵饮孤独 提交于 2019-12-03 00:28:33
I am trying to run a spring boot jar which has axis2 dependencies in it. I am using spring boot maven plugin to build the jar (with dependencies). When I try to run my jar, I get the following exception in my console: org.apache.axis2.AxisFault: The G:application\myapp\target\myapp.jar!\lib\axis2-1.6.1.jar file cannot be found. at org.apache.axis2.deployment.repository.util.DeploymentFileData.setClassLoader(DeploymentFileData.java:111) at org.apache.axis2.deployment.ModuleDeployer.deploy(ModuleDeployer.java:70) at org.apache.axis2.deployment.repository.util.DeploymentFileData.deploy

FPGA数字信号处理(九)Vivado FFT IP核实现

匿名 (未验证) 提交于 2019-12-03 00:27:02
该篇是FPGA数字信号处理的第9篇,选题为DSP系统中极其常用的FFT运算。上篇介绍了Quartus环境下FFT IP核的使用“FPGA数字信号处理(八)Quartus FFT IP核实现 https://blog.csdn.net/fpgadesigner/article/details/80690345 ”。本文将介绍在Vivado开发环境下使用Xilinx提供的FFT IP核进行FFT运算的设计。 Xilinx的FFT IP核属于收费IP,但是不需要像 Quartus那样通过修改license文件来破解。如果是个人学习,现在网络上流传的license破解文件在破解Vivado的同时也破解了绝大多数可以破解的IP核。只要在IP Catalog界面中Fast Fourier Transform的License状态为“Included”即可正常使用。 与Quartus中FFT IP核相比,Vivado的FFT IP核配置起来更复杂,功能也更强大。 打开主界面,左边是IP核的接口图(IP Symbol)、实现消耗的资源等信息(Implementation Details)和计算FFT所需的时间(Latency),右边是Configuration、Implementation和Detailed Implementation三个标签卡。 Vivado的FFT IP核支持多通道输入

LSTM调参感悟

匿名 (未验证) 提交于 2019-12-03 00:27:02
train -= np.mean(train, axis = 0) # zero-center train /= np.std(train, axis = 0) # normalize test -= np.mean(test,axis=0) test /= np.std(test,axis=0) def init_weight(self): for name, param in self.lstm.named_parameters(): if 'bias' in name: nn.init.constant(param, 0.0) print('\nbias init done') elif 'weight' in name: nn.init.orthogonal(param) print('\nweight init done') 5.learning_rate一般取0.001 文章来源: LSTM调参感悟

pyecharts学习笔记

匿名 (未验证) 提交于 2019-12-03 00:26:01
中文官方文档: 点击打开链接 1.基本语法学习 from pyecharts import Bar bar = Bar("我的第一个图表", "这里是副标题") bar.add("服装", ["衬衫", "羊毛衫", "雪纺衫", "裤子", "高跟鞋", "袜子"], [5, 20, 36, 10, 75, 90]) # bar.print_echarts_options() # 该行只为了打印配置项,方便调试时使用 bar.render() # 生成本地 HTML 文件 add() : 主要方法,用于添加图表的数据和设置各种配置项 print_echarts_options() :打印输出图表的所有配置项 render(): 默认将会在根目录下生成一个 render.html 的文件,支持 path 参数,设置文件保存位置,如 render(r"e:\my_first_chart.html"),文件用浏览器打开。 Note : 可以按右边的下载按钮将图片下载到本地,如果想要提供更多实用工具按钮, 请在 add() 中设置 is_more_utils 为 True 2.使用主题 from pyecharts import Bar bar = Bar("我的第一个图表", "这里是副标题") bar.use_theme('dark') bar.add("服装", ["衬衫",

keras 自带数据的标准化方法

匿名 (未验证) 提交于 2019-12-03 00:25:02
1. featurewise_center:布尔值,使输入数据集去中心化(均值为0), 按feature执行。 2. samplewise_center:布尔值,使输入数据的每个样本均值为0。 3. featurewise_std_normalization:布尔值,将输入除以数据集的标准差以完成标准化, 按feature执行。 4. samplewise_std_normalization:布尔值,将输入的每个样本除以其自身的标准差。 从源码来解读: if self.samplewise_center: x -= np.mean(x, keepdims=True) #减去每个批次feature的平均值实现0中心化 if self.samplewise_std_normalization: x /= (np.std(x, keepdims=True) + K.epsilon()) #除以每个批次feature的标准差 if self.featurewise_center: self.mean = np.mean(x, axis=(0, self.row_axis, self.col_axis)) #在底层为tendorflow时这里#self.row_axis=1,self.col_axis=2,即axis(0,1,2)。因为x是一个4维np,最后一维即图像的通道数,所

Android图表开发之HelloCharts

匿名 (未验证) 提交于 2019-12-03 00:22:01
最近项目中需要集成折线图、饼状图、柱状图等各类图表,于是就去网上搜寻了一下三方的框架,看到大家用的比较多的就是MPAndroidChart(github上星赞第一)、HelloChart(github上星赞第二),还有就是百度官方推出的Echarts,但是Echarts在Android中植入有些特殊,需要用到WebView结合html进行展示,我们留着下篇文章里介绍,今天我们来谈谈HelloCharts,为什么当时在选择的时候没有选择星赞排行第一的MPAndroidChart呢?原因很简单,就是在对比二者图表的样式时,我觉得HelloCharts更加好看,不过后来因为项目的需求越来越多,HelloCharts已不能满足诸如码表、横向柱状图、复杂标签饼状图的需求,所以又不得不在项目中引入了Echarts,但HelloCharts作为简单图标的展示还是值得推荐的,因为使用简单、加载迅速、看着舒服。。。 先贴出github上的地址吧: 点击打开链接 ,两种引入方式,compile和jar包,根据个人喜好引入就行 今天我们就说一下常用的三种图表的使用方法:折线图、饼状图和柱状图 折线图:LineChartView,使用很简单,直接在对应的xml文件中引入就行: <lecho.lib.hellocharts.view.LineChartView android:id="@+id/line

matplotlib画多个子图

匿名 (未验证) 提交于 2019-12-03 00:22:01
想要用matplotlib画多个子图有多种方法,但是如果子图太多,画面就会很混乱,这里给出一种方法,能够使画面在保留必要信息的前提下,尽量简洁,如下图所示。 思路是这样的,在一个fig上先画一张只有坐标轴的空图ax_big: fig, ax_big = plt.subplots( figsize =( 30 , 15 )) 对ax_big 的坐标轴进行偏移、隐藏、以及label设置。 随后再add多个子图,并进行子图的坐标轴设置: ax = fig.add_subplot( 3 , 4 , i) 这样,最后显示的时候,会把 ax_big 和多个 ax 重叠显示。 代码: #!/usr/bin/env python3 # -*- coding: utf-8 -* import numpy as np import matplotlib.pyplot as plt from pylab import mpl def draw_picture_11(path_picture): # mpl.rcParams['font.sans-serif'] = ['SimHei'] # 指定默认字体 mpl.rcParams['axes.unicode_minus'] = False # 解决保存图像是负号'-'显示为方块的问题 # fig= plt.figure('222', figsize=

Pandas的常用方法

匿名 (未验证) 提交于 2019-12-03 00:22:01
Pandas 是一个 Python 软件包,提供快速,灵活和富有表现力的数据结构,旨在使“关系”或“标记”数据的工作变得简单直观。 它旨在成为 在Python中 进行实际的, 真实世界的 数据分析 的基本高级构件 。 另外,它具有更广泛的目标,即成为 任何语言中最强大,最灵活的开源数据分析/操作工具 。 它已经很好地走向了这个目标。 pandas非常适合许多不同类型的数据: 具有异构类型列的表格数据,如在SQL表格或Excel电子表格中 有序和无序(不一定是固定频率)的时间序列数据。 具有行列标签的任意矩阵数据(均匀类型或异类型) 任何其他形式的观测/统计数据集。 数据实际上不需要标记为放置在熊猫数据结构中 Series (1维)和 DataFrame (2维) 这两个主要的数据结构 在金融,统计,社会科学和许多工程领域处理绝大多数的典型用例。 对于R用户, DataFrame 提供 R所 data.frame 以及更多。pandas 建立在 NumPy之上 ,旨在与许多其他第三方库完美地集成在科学计算环境中。 这只是pandas所做的一些事情: 轻松处理 浮点 数据中 的 丢失数据 (以NaN表示)以及非浮点数据 大小可变性:可以 从DataFrame和更高维的对象 插入和删除 列 自动和显式的 数据对齐 :对象可以显式地与一组标签对齐,或者用户可以简单的忽略标签,让