TAU

代码学习和论文阅读

放肆的年华 提交于 2020-08-10 08:35:53
代码学习和论文阅读 学习理解MobileNetV1、MobileNetV2的代码;阅读《HybridSN: Exploring 3-D–2-DCNN Feature Hierarchy for Hyperspectral Image Classification》,并学习其代码实现,理解3D卷积和2D卷积; 阅读《Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising》 MobileNetV1代码实现 关于MobileNetV1的相关学习和理解,都整理在上一篇文章里面,其核心内容就是将传统卷积拆分为Depthwise+Pointwise两部分,从而减少了参数量,并保持了网络性能。 假如当前输入为19x19x3 标准卷积:3x3x3x4(stride = 2, padding = 1),那么得到的输出为10x10x4 深度可分离卷积: 深度卷积:3x3x1x3(3个卷积核对应着输入的三个channel),得到10x10x3的中间输出 点卷积:1x1x3x4,得到最终输出10x10x4 一个标准的卷积层以 \(D_F * D_F * M\) 大小的feature map F作为输入,然后输出一个 \(D_G * D_G * N\) 的feature G 卷积核K的参数量为 \(D_K *

Interactive Structure-aware Blending of Diverse Edge Bundling Visualizations

霸气de小男生 提交于 2020-08-07 02:21:38
论文传送门 视频 论文主页 作者 山东大学 Yunhai Wang Mingliang Xue Yanyan Wang Xinyuan Yan 北京大学 Baoquan Chen 香港中文大学 Chi-Wing Fu 法国国立民航大学 Christophe Hurter 摘要 存在许多边捆绑技术(即简化数据以支持数据可视化和决策),但是它们不能直接应用于任何类型的数据集,并且它们的参数通常过于抽象并且难以设置。结果,这阻碍了用户创建有效的聚合可视化效果的能力。为了解决这一问题,我们研究了一种以任务驱动和以用户为中心的方法来处理视觉聚合的新颖方法。给定一个图形,我们的方法将产生一个杂乱的视图,如下所示:首先,用户研究不同的边绑定结果,并指定某些边绑定技术将提供用户所需结果的区域。其次,我们的系统然后计算这些指定区域之间的平滑且结构保留的过渡。最后,用户可以使用直接操作技术进一步微调全局可视化效果,以消除局部歧义并应用不同的视觉变形。在本文中,我们提供了设计原理和实现的详细信息。此外,我们展示了与当前的边捆绑技术相比,我们的算法如何提供更合适的结果,最后,我们提供了用法的具体实例,其中算法结合了各种边绑定结果以支持各种数据探索和可视化。 Introduction Edge bundling methods Force-Directed Edge Bundling Skeleton

走近神经退行性疾病|专访浙江大学钟贞研究员

Deadly 提交于 2020-08-05 13:56:53
编者按: 本栏目旨在与脑科学相关的科研人员以及产业界人士深入交流,直击科研和生产一线,帮助大家更好的了解脑科学现状和未来发展动态。 时间导览 00:00 – 00:53 采访背景 01:05 – 05:39 嘉宾学术背景 05:46 – 13:48 神经退行性疾病与变性蛋白沉积 13:50 – 24:41 神经退行性疾病的攻克与挑战 24:58 – 35:20 研究工作与家庭的平衡 采访背景 提到 神经退行性疾病 (neurodegenerative disease),大家可能并不是特别熟悉,但是当我们提到帕金森综合征(Parkinson’s disease, PD)、阿尔茨海默病(Alzheimer’s disease, AD),还有著名物理学家史蒂芬•霍金曾经罹患的“渐冻人症”(Amyotrophic lateral sclerosis, ALS, 肌萎缩性侧束硬化症。之前网上大热的“冰桶挑战”,就是一个呼吁大家关注“渐冻人症”的公益活动),大家可能就会恍然大悟,其实这些耳熟能详的疾病都属于神经退行性疾病。这些疾病不仅让患者的生活难以自理,容易产生抑郁的心理状态,还需要护理人员的精心照顾。与此同时,他们的家人也承受着难以估量的心理和经济负担。那么神经退行性疾病究竟是什么样的疾病?如何彻底医治呢?今天我们脑人言有幸邀请到了 浙江大学的钟贞研究员 钟老师

或可提前20年诊断出阿尔兹海默病!科学家发现血检新标记物

∥☆過路亽.° 提交于 2020-08-04 10:01:34
     阿尔兹海默病(Alzheimer’s disease,AD)是常见的神经系统退行性疾病。2019 年,全球预计有 5000 万 AD 病人,预计到 2050 年全球约有 1.3 亿 AD 病人。但是,目前还没有很好的治疗性药物,提早发现并预防 AD 的发展至关重要。   目前正在举办的阿尔兹海默病协会国际会议(AAIC-2020 )上,来自瑞典隆德大学的科学家们发表了一项用血检诊断 AD 的研究,该研究指出通过检测一种 Tau 蛋白 P-tau217 可以诊断 AD,其精准度可达 96%,效果与对 Tau 蛋白进行脑扫描以及脑脊液检测相似,比其他血检和核磁共振测试效果更好。更重要的一点是,在携带 PSEN1 E280A 基因突变的 AD 患者中, 可以提前 20 年发现潜在患者体内是否出现 Tau 蛋白异常。   Tau 蛋白是一种微管相关蛋白,促进微管组装和维持微管的稳定性。 通常认为,Tau 蛋白过度磷酸化形成的神经纤维缠结是 AD 的主要病理特征之一。 目前,一些国际大药厂也在开发针对 Tau 蛋白的药物,比如说渤健有三款针对 Tau 蛋白的在研药,其与百时美施贵宝共同开发的针对 Tau 蛋白 N 端片段的抗体药已经进入临床 II 期阶段。      图 | AD 微管分解图(来源:Alzheimer's Disease Education and Referral

循环神经网络(RNN)模型与前向反向传播算法

依然范特西╮ 提交于 2020-07-29 09:09:09
    在前面我们讲到了DNN,以及DNN的特例CNN的模型和前向反向传播算法,这些算法都是前向反馈的,模型的输出和模型本身没有关联关系。今天我们就讨论另一类输出和模型间有反馈的神经网络:循环神经网络(Recurrent Neural Networks ,以下简称RNN),它广泛的用于自然语言处理中的语音识别,手写书别以及机器翻译等领域。 1. RNN概述     在前面讲到的DNN和CNN中,训练样本的输入和输出是比较的确定的。但是有一类问题DNN和CNN不好解决,就是训练样本输入是连续的序列,且序列的长短不一,比如基于时间的序列:一段段连续的语音,一段段连续的手写文字。这些序列比较长,且长度不一,比较难直接的拆分成一个个独立的样本来通过DNN/CNN进行训练。     而对于这类问题,RNN则比较的擅长。那么RNN是怎么做到的呢?RNN假设我们的样本是基于序列的。比如是从序列索引1到序列索引$\tau$的。对于这其中的任意序列索引号$t$,它对应的输入是对应的样本序列中的$x^{(t)}$。而模型在序列索引号$t$位置的隐藏状态$h^{(t)}$,则由$x^{(t)}$和在$t-1$位置的隐藏状态$h^{(t-1)}$共同决定。在任意序列索引号$t$,我们也有对应的模型预测输出$o^{(t)}$。通过预测输出$o^{(t)}$和训练序列真实输出$y^{(t)}$,以及损失函数

SAR成像(一):线性调频信号(LFM)和脉冲压缩

安稳与你 提交于 2020-07-29 05:56:40
文章仅为个人理解,如有不妥之处欢迎指正。 1、脉冲压缩目的和意义 在雷达系统中,距离分辨率是很重要的一项性能指标,它决定了雷达能分辨两个单元之间的最小距离,更通俗的,即雷达分辨相离较近物体的能力。而决定雷达分辨率的是发射信号带宽,所以我们想要提高距离分辨率,就需要发射更窄的脉冲信号,但是,窄脉冲就意味着发射信号能量小,导致探测距离短,所以,对于一般的脉冲信号(脉宽、时宽乘积约为1),比如矩形脉冲信号,带宽和时宽不能同时增大,因此距离分辨率和探测距离是一对矛盾。 脉冲压缩技术就能比较好的解决上述两个参量之间的矛盾,用宽脉冲发射信号,保证足够的探测距离,在接收端用相应的匹配滤波器,通过脉冲压缩技术得到窄脉冲,以此来提高距离分辨率。 2、线性调频信号 大时宽的宽频信号有很多形式,在雷达系统中最常用的是线性调频(Linear Frequency Modulation)脉冲信号。LFM脉冲信号的载频在脉冲宽度范围内线性变化,因此也有更宽的带宽。 LFM信号的复数表达式为: s ( t ) = r e c t ( t τ ) e j 2 π ( f 0 + K t 2 / 2 ) s(t)=rect(\frac{t}{\tau})e^{j2\pi(f_{0}+Kt^{2}/2)} s ( t ) = r e c t ( τ t ​ ) e j 2 π ( f 0 ​ + K t 2 / 2 )

局部加权之线性回归(1)

∥☆過路亽.° 提交于 2020-05-07 00:04:26
算法特征 : 回归曲线上的每一点均对应一个独立的线性方程, 该线性方程由一组经过加权后的残差决定. 残差来源于待拟合数据点与拟合超平面在相空间的距离, 权重依赖于待拟合数据点与拟合数据点在参数空间的距离. 算法推导 : 待拟合方程 : \begin{equation}\label{eq_1} h_{\theta}(x) = x^T\theta \end{equation} 最小二乘法 : \begin{equation}\label{eq_2} min\ \frac{1}{2}(X^T\theta-\bar{Y})^TW(X^T\theta-\bar{Y}) \end{equation} 其中, $X=[x^1, x^2, ..., x^n]$是由待拟合数据之输入值所组成的矩阵, 每根分量均为一个列矢量, 将该列矢量的最后一个元素置1以满足线性拟合之常数项需求. $\bar{Y}$由待拟合数据之标准输出值组成, 是一个列矢量. $W$由待拟合数据之权重组成, 是一个对角矩阵 , 此处取第$i$个对角元为$exp(-(x_i - x)^2 / (2\tau^2))$. $\theta$为待求解的优化变量, 是一个列矢量. 上诉优化问题(\ref{eq_2})为无约束凸优化问题, 存在如下 近似解析解 : \begin{equation}\label{eq_3} \theta =

Relation-Shape Convolutional Neural Network for Point Cloud Analysis(CVPR 2019)

♀尐吖头ヾ 提交于 2020-05-06 00:32:51
代码: https://github.com/Yochengliu/Relation-Shape-CNN 文章: https://arxiv.org/abs/1904.07601 作者直播: https://www.bilibili.com/video/av61824733 作者维护了一个收集一系列点云论文、代码、数据集的github仓库: https://github.com/Yochengliu/awesome-point-cloud-analysis 这篇paper是CVPR 2019 Oral & Best paper finalist Abstract & Introduction 在点云中,由于不规则点中隐含的形状很难捕捉,使得点云分析非常具有挑战性。在本文中,作者针对点云数据提出了RS-CNN,即Relation-Shape Convolutional Neural Network,其核心思想是从几何拓扑中学习点云关系信息。RS-CNN在多个数据集中都取得了SOTA的表现。 主要贡献如下: 提出了一种新型的从关系中学习的卷积算子关系形状卷积。它可以显式地对点的几何关系进行编码,从而在很大程度上提高了对形状的感知能力和鲁棒性。 即,RS-Conv 提出一个具有关系形状卷积的深层层次结构,即,RS-CNN。将规则网格CNN扩展到不规则配置,实现点云的上下文形状感知学习。

Python Number(numeric, 数字,数值)

家住魔仙堡 提交于 2020-05-03 18:27:07
Python Number( 数字 ) Python Number 数据类型用于存储数值。 数据类型是不允许改变的 , 这就意味着如果改变 Number 数据类型的值,将重新分配内存空间。 以下实例在变量赋值时 Number 对象将被创建: var1 = 1 var2 = 10 您也可以使用 del 语句删除一些 Number 对象引用。 del 语句的语法是: del var1 [, var2 [, var3 [...., varN ]]]] 您可以通过使用 del 语句删除单个或多个对象,例如: del var del var_a , var_b Python 支持四种不同的数值类型: 整型 (Int) - 通常被称为是整型或整数,是正或负整数,不带小数点。 长整型 (long integers) - 无限大小的整数,整数最后是一个大写或小写的 L 。 浮点型 (floating point real values) - 浮点型由整数部分与小数部分组成,浮点型也可以使用科学计数法表示( 2.5e2 = 2.5 x 10 2 = 250 ) 复数 (complex numbers) - 复数由实数部分和虚数部分构成,可以用 a + bj, 或者 complex(a,b) 表示, 复数的实部 a 和虚部 b 都是浮点型。 int long float complex 10

三大统计相关系数:Pearson、Spearman秩相关系数、kendall等级相关系数

廉价感情. 提交于 2020-05-02 10:59:45
统计相关系数简介 由于使用的统计相关系数比较频繁,所以这里就利用几篇文章简单介绍一下这些系数。 相关系数:考察两个事物(在数据里我们称之为变量)之间的相关程度。 如果有两个变量:X、Y,最终计算出的相关系数的含义可以有如下理解: (1)、当相关系数为0时,X和Y两变量无关系。 (2)、当X的值增大(减小),Y值增大(减小),两个变量为正相关,相关系数在0.00与1.00之间。 (3)、当X的值增大(减小),Y值减小(增大),两个变量为负相关,相关系数在-1.00与0.00之间。 相关系数的绝对值越大,相关性越强,相关系数越接近于1或-1,相关度越强,相关系数越接近于0,相关度越弱。 通常情况下通过以下取值范围判断变量的相关强度: 相关系数 0.8-1.0 极强相关 0.6-0.8 强相关 0.4-0.6 中等程度相关 0.2-0.4 弱相关 0.0-0.2 极弱相关或无相关 Pearson(皮尔逊)相关系数 1、简介 皮尔逊相关也称为积差相关(或积矩相关)是英国统计学家皮尔逊于20世纪提出的一种计算直线相关的方法。 假设有两个变量X、Y,那么两变量间的皮尔逊相关系数可通过以下公式计算: 公式一: 公式二: 公式三: 公式四: 以上列出的四个公式等价,其中E是数学期望,cov表示协方差,N表示变量取值的个数。 2、适用范围 当两个变量的标准差都不为零时,相关系数才有定义