axis

KEGG富集分析散点图.md

匿名 (未验证) 提交于 2019-12-02 23:42:01
pathway = read.table("kegg.result",header=T,sep="\t") pp = ggplot(pathway,aes(richFactor,Pathway)) #Pathwy是ID,richFactor是富集的基因数目除以背景的基因数目 # 改变点的大小 pp + geom_point(aes(size=R0vsR3)) # 以基因的数目表示点大小 pbubble = pp + geom_point(aes(size=R0vsR3,color=-1*log10(Qvalue))) # 显著性表示颜色 # 自定义渐变颜色 pbubble + scale_colour_gradient(low="green",high="red") # 绘制pathway富集散点图 pr = pbubble + scale_colour_gradient(low="green",high="red") + labs(color=expression(-log[10](Qvalue)),size="Gene number",x="Rich factor",y="Pathway name",title="Top20 of pathway enrichment") # 改变图片的样式(主题)去除背景色 pr + theme_bw() #去除网格线 p_remove

KEGG作图

匿名 (未验证) 提交于 2019-12-02 23:42:01
pathway = read.table("kegg.result",header=T,sep="\t") pp = ggplot(pathway,aes(richFactor,Pathway)) #Pathwy是ID,richFactor是富集的基因数目除以背景的基因数目 # 改变点的大小 pp + geom_point(aes(size=R0vsR3)) # 以基因的数目表示点大小 pbubble = pp + geom_point(aes(size=R0vsR3,color=-1*log10(Qvalue))) # 显著性表示颜色 # 自定义渐变颜色 pbubble + scale_colour_gradient(low="green",high="red") # 绘制pathway富集散点图 pr = pbubble + scale_colour_gradient(low="green",high="red") + labs(color=expression(-log[10](Qvalue)),size="Gene number",x="Rich factor",y="Pathway name",title="Top20 of pathway enrichment") # 改变图片的样式(主题)去除背景色 pr + theme_bw() #去除网格线 p_remove

AXI4-STREAM DATA FIFOѧϰ

匿名 (未验证) 提交于 2019-12-02 23:34:01
版权声明:本文为博主原创文章,转载请声明原作者。 https://blog.csdn.net/QQ286615275/article/details/90297888 如图是该fifo的配置图,vivado版本2018.2. AXI4-Stream Data FIFO 配置 General Options Component Name 器件名字 FIFO depth FIFO的深度,可以在16到32768之间变化,具体情况视情况而定,但要是2的n次幂。 Enable packet mode 使能包模式:此项设定需要TLAST信号被使能。FIFO的操作在包模式下被修改为存储传送的数据,直到TLAST信号被响应。当TLAST信号被响应或者FIFO满了,存储的数据将被送至AXI4-Stream master interface. Asynchronous Clocks 异步时钟:启用后S_AXIS_ACLK和M_AXIS_ACLK将会是异步时钟。 Synchronization Stages across Cross Clock Domain Logic 当启用异步时钟后,才会有该选项,其作用相当于跨时钟域时的打拍操作。一般默认即可。 ACLKEN Conversion Mode 此选项用来选择ACLKEN信号的转换模式。 None 没有和这个IP相关的ACLKEN 信号相关 S

tensorflow-tf.concat

匿名 (未验证) 提交于 2019-12-02 23:03:14
tf.concat tf.concat( ) 按一维连接张量。 沿着维度轴连接张量值的列表。如果values[i].shape=[D0, D1, ... Daxis(i), ...Dn],则连接的结果具有形状如下: [D0, D1, ... Raxis, ...Dn] 在此 Raxis = sum(Daxis(i)) 也就是说,来自输入张量的数据沿着轴维度连接。 输入张量的维数必须匹配,除轴外的所有维度必须相等。 例如: [[ 1 2 3] [ 4 5 6] [ 7 8 9] [10 11 12]] [[ 1 2 3 7 8 9] [ 4 5 6 10 11 12]] 在python中,axis可以为负值。负轴(axis)x被解释为从秩(rank)的末尾开始计数,即axis+rank(values)-Th维。 例如: #!/usr/bin/env python2 # -*- coding: utf-8 -*- """ Created on Thu Sep 6 10:16:37 2018 @author: myhaspl """ import tensorflow as tf t1 = [[[1, 2], [2, 3]], [[4, 4], [5, 3]]] t2 = [[[7, 4], [8, 4]], [[2, 10], [15, 11]]] a=tf.concat([t1,

机器学习:逻辑回归(使用多项式特征)

匿名 (未验证) 提交于 2019-12-02 22:56:40
一、基础 逻辑回归中的决策边界,本质上相当于在特征平面中找一条直线,用这条直线分割所有的样本对应的分类; 逻辑回归只可以解决二分类问题(包含线性和非线性问题),因此其决策边界只可以将特征平面分为两部分; 问题 :使用直线分类太过简单,因为有很多情况样本的分类的决策边界并不是一条直线,如下图; 因为这些样本点的分布是非线性的 ; 方案 : 引入多项式项,改变特征,进而更改样本的分布状态 ; 二、具体实现  1)模拟数据集 import numpy as np import matplotlib.pyplot as plt np.random.seed( 666 ) X = np.random.normal(0, 1, size=(200, 2 )) y = np.array(X[:,0]**2 + X[:,1]**2 < 1.5, dtype= ‘ int ‘ ) plt.scatter(X[y ==0,0], X[y==0,1 ]) plt.scatter(X[y ==1,0], X[y==1,1 ]) plt.show()  2)使用逻辑回归算法(不添加多项式项) from playML.LogisticRegression import LogisticRegression log_reg = LogisticRegression() log_reg.fit(X, y) def

数据分析之pandas常见的数据处理(四)

匿名 (未验证) 提交于 2019-12-02 22:56:40
方法 说明 count 计数 describe 给出各列的常用统计量 min,max 最大最小值 argmin,argmax 最大最小值的索引位置(整数) idxmin,idxmax 最大最小值的索引值 quantile 计算样本分位数 sum,mean 对列求和,均值 mediam 中位数 mad 根据平均值计算平均绝对离差 var,std 方差,标准差 skew 偏度(三阶矩) Kurt 峰度(四阶矩) cumsum 累积和 Cummins,cummax 累计组大致和累计最小值 cumprod 累计积 diff 一阶差分 pct_change 计算百分数变化 df[df.isnull()] #判断是够是Nan,None返回的是个true或false的Series对象 df[df.notnull()] #dropna(): 过滤丢失数据 #df3.dropna(axis=0, how='any', thresh=None, subset=None, inplace=False) df.dropna() #将所有含有nan项的row删除 df.dropna(axis=1,thresh=3) #将在列的方向上三个为NaN的项删除 df.dropna(how='ALL') #将全部项都是nan的row删除 df.dropna()与data[data.notnull()] #效果一致

python axis的理解

匿名 (未验证) 提交于 2019-12-02 22:54:36
轴用来为超过一维的数组定义的属性,二维数据拥有两个轴:第 0 轴沿着行垂直往下,第 1 轴沿着列的方向水平延伸。 简单来说,就是 0 轴匹配的是 index ,涉及上下运算; 1 轴匹配的是 columns ,涉及左右运算。 axis 参数作用方向图示: 示例: >>>df = pd.DataFrame([[1, 1, 1, 1], [2, 2, 2, 2], [3, 3, 3, 3]]) columns=["col1", "col2", "col3", "col4"]) >>>df 如果我们调用 df.mean(axis=1), 我们将得到按行计算的均值 >>> df.mean(axis=1) 然而,如果我们调用 df.drop((name, axis=1), 我们实际上删掉了一列,而不是一行: >>> df.drop("col4", axis=1) 第一个例子 代表沿着列水平方向计算均值,而第二个例子 df.drop(name, axis=1) 代表将 name 对应的列标签(们)沿着水平的方向依次删掉。 换句话说 : 使用 0 值表示沿着每一列或行标签 \ 索引值向下执行方法 使用 1 值表示沿着每一行或者列标签模向执行对应的方法 文章来源: python axis的理解

Python――DataFrame基础操作

匿名 (未验证) 提交于 2019-12-02 22:51:30
DataFrame理解 DataFrame可以看做是有序排列的若干Series对象,这里的“排列”是指这些Series都有共同的索引。 一、读取文件 dt = pd.read_csv(path) dt = pd.read_excel(path) dt = pd.read_table(path, sep=',') 二、索引 第一类索引是iloc属性,表示取值和切片都是显式的,dt.iloc[1:3] #注:从0开始的左闭右开区间 第二类索引是loc属性,表示索引是隐式的,如dt.loc[:'Illinois', :'pop'] 第三种索引ix可实现一种混合效果,如dt.ix[:3, :'pop'] 三、合并与连接 1、pd.concat() pd.concat(objs, axis=0, join='outer', join_axes=None, ignore_index=False, keys=None, levels=None) 其中,axis=0是按照行合并,axis=1是按列合并(也可写成axis='col')。axis=1时是按照索引合并的。 ser1 = pd.Series(['A','B','C']) ser2 = pd.Series(['D','E','F']) ser3 = pd.Series(['G','H','I']) a = pd.concat([ser1

python数据拼接: pd.concat

匿名 (未验证) 提交于 2019-12-02 22:51:30
1.concat concat函数是在pandas底下的方法,可以将数据根据不同的轴作简单的融合 pd.concat(objs, axis=0, join='outer', join_axes=None, ignore_index=False, keys=None, levels=None, names=None, verify_integrity=False) join:连接的方式 inner,或者outer 其他一些参数不常用,用的时候再补上说明。 1.1 相同字段的表首尾相接 # 现将表构成list,然后在作为concat的输入 In [4]: frames = [df1, df2, df3] In [5]: result = pd.concat(frames) 要在相接的时候在加上一个层次的key来识别数据源自于哪张表,可以增加key参数 In [6]: result = pd.concat(frames, keys=['x', 'y', 'z']) 效果如下 1.2 横向表拼接(行对齐) 1.2.1 axis 当axis = 1的时候,concat就是行对齐,然后将不同列名称的两张表合并 In [9]: result = pd.concat([df1, df4], axis=1) 1.2.2 join 加上join参数的属性,如果为’inner’得到的是两表的交集

学习python的第二十二天(numpy模块(对矩阵的处理,ndarray对象)

匿名 (未验证) 提交于 2019-12-02 22:51:30
import numpy as np 约定俗称要把他变成np https://docs.scipy.org/doc/numpy/reference/?v=20190307135750 1.np.array import numpy as np #创建一维的ndarray对象 arr = np.array([1, 2, 3]) print(arr) #[1 2 3] #创建二维的ndarray对象 arr = np.array([[1, 2, 3], [4,5,6]]) print(arr) ''' [[1 2 3] [4 5 6]] ''' #创建三维的ndarray对象 arr = np.array([[[1, 2, 3],[3,2,1]], [[4,5,6],[6,5,4]]]) print(arr) ''' [[[1 2 3] [3 2 1]] [[4 5 6] [6 5 4]]] ''' #我们可以这样理解.其实内这个可以相当于几何里面的,点,线,面,里面各个元素相当一个点,一个列表里面有几个元素相当于线也就是一维,然后列表里面套列表相当于线,以此类推 import numpy as np arr = np.array([[1, 2, 3], [4,5,6]]) print(arr.shape) #(2, 3) # (矩阵的行数,矩阵的列数) import numpy as