layer

How to create a custom layer in Keras with 'stateful' variables/tensors?

别说谁变了你拦得住时间么 提交于 2020-08-25 04:41:46
问题 I would like to ask you some help for creating my custom layer. What I am trying to do is actually quite simple: generating an output layer with 'stateful' variables, i.e. tensors whose value is updated at each batch. In order to make everything more clear, here is a snippet of what I would like to do: def call(self, inputs) c = self.constant m = self.extra_constant update = inputs*m + c X_new = self.X_old + update outputs = X_new self.X_old = X_new return outputs The idea here is quite

万兆以太网测试仪器

我的未来我决定 提交于 2020-08-20 08:45:30
随着网络的发展,业务的需要,以太网测试仪器的要求也越来越高,面对网络的故障、延迟、丢包等问题。一把好的以太网测试仪器就能立刻知道问题的根本原因所在。而明辰智航近期推出的网络一点通万兆以太网性能测试仪器,符合所有测试标准及快速故障定位的特点,深受大众喜爱。 明辰智航一点通网万兆以太网测试仪以设计坚固紧凑、携带方便为特点、功能强大、模块化智能网络测试平台为基础,图形化用户界面、操作方便被用户称为网络维护和管理人员爱不释手的好仪器。 今天明辰智航的小编给大家介绍介绍万兆一点通测试仪的具体功能有哪些: 双端口或四端口电信级以太网测试功能 提供双端以太网监测和穿通功能 双端口/四端口可独立配置,同时测试 Ethernet: • 两个 10G Base-X 测试接口,双端口 10G WAN/LAN 测试接口 • 两个 10/100/1000M Base-T, 100M Base-FX,1000M Base-X 测试端口,支持全部接口的全双工和半双工自适应。 • 依照 RFC 2544 标准,进行吞吐量、背对背、延迟和帧丢失测量(双向结果); • 完整的 Y.1564 测试套件(双向结果)。Y.1564 可为移动回程和商业服务提供全面的现场测试; • 支持 RFC6349 标准的 TCP 吞吐量测试功能; • 支持基于目的/源 MAC、目的/源 IP、3 层 VLAN ID、3 层 MPLS

043. 基于 VIP 的 Keepalived 高可用架构讲解

霸气de小男生 提交于 2020-08-19 19:18:44
1. Keepalived 简介 1. keepalived 的作用 Keepalived 的作用是检测服务器的状态。如果有一台 web 服务器宕机,或工作出现故障,Keepalived 将检测到,并将有故障的服务器从系统中剔除,同时使用其他服务器代替该服务器的工作,当服务器工作正常后 Keepalived 自动将服务器加载到服务器群中,这些工作全部自动完成,不需要人工干涉,需要人工做的只是修复故障的服务器。 2. Keepalived 的特性 配置文件简单:配置文件比较简单,可通过简单配置实现高可用功能。 稳定性强:keepalived 是一个类似于 layer3/4/7 交换机机制的软件,具备我们平时说的第 3 层、第 4 层和第 7 层交换机的功能,常用于前端负载均衡器的高可用服务,当主服务器出现故障时,可快速进行切换,监测机制灵活,成功率高。 成本低廉:开源软件,可直接下载配置使用,没有额外费用。 应用范围广:因为 keepalived 可应用在多个层面,所以它几乎可以对所有应用做高可用,包括 LVS、数据库、http 服务、nginx 负载均衡等等。 支持多种类型:支持主从模式、主主模式高可用,可根据业务场景灵活选择。 2. Keepalived 工作原理 1. Keepalived 内部工作分为以下几个部分 WatchDog 监控 checkers 和 VRRP

Paper:《Graph Neural Networks: A Review of Methods and Applications》翻译与解读

落花浮王杯 提交于 2020-08-19 19:00:53
Paper:《Graph Neural Networks: A Review of Methods and Applications》翻译与解读 目录 《Graph Neural Networks: A Review of Methods and Applications》翻译与解读 Abstract 1. Introduction 2. Neural Networks as Relational Graphs 2.1. Message Exchange over Graphs 2.2. Fixed-width MLPs as Relational Graphs 2.3. General Neural Networks as Relational Graphs 3. Exploring Relational Graphs 3.1. Selection of Graph Measures 3.2. Design of Graph Generators 3.3. Controlling Computational Budget 4. Experimental Setup 4.1. Base Architectures 4.2. Exploration with Relational Graphs 5. Results 5.1. A Sweet Spot for Top Neural

Position-wise Feed-Forward Networks (transformer)

假装没事ソ 提交于 2020-08-19 18:56:09
In addition to attention sub-layers, each of the layers in our encoder and decoder contains a fully connected feed-forward network, which is applied to each position separately and identically. This consists of two linear transformations with a ReLU activation in between. While the linear transformations are the same across different positions, they use different parameters from layer to layer. Another way of describing this is as two convolutions with kernel size 1. The dimensionality of input and output is dmodel=512, and the inner-layer has dimensionality dff = 2048. import torch import

.NET应用架构设计—面向查询的领域驱动设计实践(调整传统三层架构,外加维护型的业务开关)

梦想与她 提交于 2020-08-19 17:38:18
阅读目录: 1.背景介绍 2.在业务层中加入核心领域模型(引入DomainModel,让逻辑、数据有家可归,变成一个完整的业务对象) 3.统一协调层Application Layer(加入协调层来转换DomianModel) 4.从数据扁平结构转换成OO体系结构(使用OO丰富代码结构) 5.DomainModel中的内容(带开关的Specification、SOA化的Specification) 6.模式、重构、单元测试在领域模型中的运用 1.背景介绍 由于时间关系废话不多扯了,直奔主题,对领域驱动设计不是太了解的朋友请先熟悉相关主题或参考本人以下两篇文章: .NET领域驱动设计—初尝(疑问、模式、原则、工具、过程、框架、实践) ,这篇文章对领域驱动设计的基本精神详细分析; .NET领域驱动设计—实践(穿过迷雾走向光明) ,这篇文章对领域驱动设计的一个基本实践,记录下了实践过程、建模的技巧等内容; DomainModel是由很多细粒度的Object组成,按照以往的教训(将Object行为、数据肢解,得到一个残缺的Object),现在我们将逻辑行为和数据绑定在一起,形成了一个丰富的领域模型,这也是面向对象设计原则之一;想了解更多关于实现面向对象的技巧请参考 【《实现模式》作者:Kent Beck】 一书;

使用gganimate包做动态图 r 学习笔记

拟墨画扇 提交于 2020-08-19 17:32:57
今天学习一个主要用于绘制动画的ggplot2的扩展包—gganimate包 文章目录 gganimate包简要介绍 先决条件: 演示数据集 静态绘图 核心函数1:transition_*() 按时间添加动态 核心函数2:view_*()让视图跟随每个帧中的数据变换 核心函数3:shadow():在给定的时间点显示其他时间点的数据(加小尾巴) gganimate包简要介绍 几个主要函数 transition_()定义了数据应如何散布以及如何与时间相关。 shadow_() 定义应如何在给定的时间点显示其他时间点的数据。 view_() 定义位置比例应如何随着动画变化。 enter_()/exit_() 定义在动画过程中新数据应如何显示以及旧数据应如何消失。 ease_aes() 系列函数定义在过渡期间应如何缓和不同的美学。 gganimate的关键语法有三个: ggplot图形、transition_*()过渡函数、animate()生成动画。 先决条件: gganimate 稳定版本在 CRAN 上可用,可与 一起安装。最新的开发版本可以安装如下: install.packages ( 'gganimate' ) devtools :: install_github ( 'thomasp85/gganimate' ) 加载所需的包,将默认 ggplot2 主题设置为 :theme

Unity3D新手引导开发手记

ぐ巨炮叔叔 提交于 2020-08-19 05:35:46
最近开始接手新手引导的开发,记录下这块相关的心得 首先客户端是Unity,在接手前,前面的同学已经初步完成了新手引导框架的搭建,这套框架比较简单,有优点也有缺点,稍后一一点评 我们的新手引导是由一个个强引导组成的,每个强引导都有一系列的步骤,这套框架实现的功能就是: 1.组织一个强引导(任务)所需的步骤,并可以一步一步前进 2.实现蒙版,遮罩以及高亮引导区 第一个功能比较简单,首先需要有一个新手引导管理器来管理每一个步骤,然后启动第一个步骤,只需要在每一次点击的事件处理中,通知新手引导管理器,结束当前步骤,启动下一个步骤 第二个功能相对麻烦一点,首先每一个步骤可能都会有一个高亮区域,我们需要在不改动原有代码的基础上,实现这个高亮,首先我们 增加一个Guide摄像机,这个摄像机的优先级是最高的,他只照射Guide这个层的东西 ,而这个层的最底部,有一个黑色的蒙版,在步骤开始执行时,我们只需要 将要高亮的对象,设置为该层的对象 ,即可高亮显示,并且蒙版添加一个BoxCollider,来防止玩家点击到蒙版以下的按钮。在该新手引导步骤结束的时候,再将引导区设置回原来的层。 // 找到该物件并设置其层 private void SetObjectLayer( int layer, bool isStart) { if (highLightObj != null ) { if (isStart

2017-ICLR-Neural Architecture Search with Reinforcement Learning 论文阅读

别等时光非礼了梦想. 提交于 2020-08-19 03:18:13
NAS with RL 2017-ICLR-Neural Architecture Search with Reinforcement Learning Google Brain Quoc V . Le etc GitHub: stars Citation:1499 Abstract we use a recurrent network to generate the model descriptions of neural networks and train this RNN with reinforcement learning to maximize the expected accuracy of the generated architectures on a validation set. 用RNN生成模型描述(边长的字符串),用RL(强化学习)训练RNN,来最大化模型在验证集上的准确率。 Motivation Along with this success is a paradigm shift from feature designing to architecture designing, 深度学习的成功是因为范式的转变:特征设计(SIFT、HOG)到结构设计(AlexNet、VGGNet)。 This paper presents Neural

Network slimming,一个比较好用的模型剪枝方法

做~自己de王妃 提交于 2020-08-18 08:51:41
由于深度学习模型大小以及计算资源的限制,导致将深度学习模型部署到如移动端的时候会受到一定的限制,为了解决这个问题,就形成了一个新的领域:模型压缩,即减少模型的参数以及计算量,并且依然保证模型的精度。常见的方法比如:量化、剪枝、蒸馏等,本文便是“剪枝”当中一篇非常经典的文章,也是比较有效果的一篇文章。本文方法其实比较简单:首先,使用L1 regularization对BN层的scaling factor进行稀疏化训练,然后将scaling factor较小的参数相连接的filter减掉,达到减少模型size的目标。最后再重新finetune剪枝后的网络,以达到更好的效果。 论文名称:Learning Efficient Convolutional Networks through Network Slimming 作者: Zhuang Liu & Jianguo Li 等 论文链接: https://arxiv.org/abs/1708.06519 github: https://github.com/liuzhuang13/slimming 模型压缩加速方法介绍 Low-rank Decomposition 采用奇异值分解等方法对权重矩阵进行分解,以达到减少矩阵大小的作用,这种方法适用于全连接层,大概可以减少3倍的模型大小,但是对于卷积层,作用不大。 Weight