Sequence

CCNP(ISCW)实验:配置GRE隧道(2.0)

跟風遠走 提交于 2021-01-12 07:47:10
这个实验在ISP上没有运行协议,只有直连的路由 实验过程: 第一步:各路由器上的配置 R1(config)#int lo0 R1(config-if)#ip add 1.1.1.1 255.255.255.0 R1(config-if)#int s2/1 R1(config-if)#ip add 192.168.0.1 255.255.255.0 R2(config)#int s2/1 R2(config-if)#ip add 192.168.0.2 255.255.255.0 R2(config-if)#no sh R2(config-if)#int s2/2 R2(config-if)#ip add 172.16.0.2 255.255.255.0 R3(config)#int lo0 R3(config-if)#ip add 3.3.3.3 255.255.255.0 R3(config-if)#int s2/1 R3(config-if)#ip add 172.16.0.3 255.255.255.0 R3(config-if)#no sh 第二步:配置路由协议使它们能上网,R2模拟互联网上的设备 R1(config)#ip route 0.0.0.0 0.0.0.0 192.168.0.2 R3(config)#ip route 0.0.0.0 0.0.0.0 172

杭电多校第七场 1010 Sequence(除法分块+矩阵快速幂)

空扰寡人 提交于 2021-01-12 04:23:22
Sequence Problem Description Let us define a sequence as below f1=A f2=B fn=C*fn-2+D*fn-1+[p/n] Your job is simple, for each task, you should output F n module 10 9 + 7 . Input The first line has only one integer T , indicates the number of tasks. Then, for the next T lines, each line consists of 6 integers, A , B , C , D , P , n . 1 ≤ T ≤ 20 0 ≤ A , B , C , D ≤ 10 9 1 ≤ P , n ≤ 10 9 Sample Input 2 3 3 2 1 3 5 3 2 2 2 1 4 Sample Output 36 24 题意:题目给出ABCDPn,第一项是A,第二项是B,然后还有个递推式,问第n项是多少 思路:如果我们按照他的递推式去推得答案的话,n的范围是1e9肯定会超时,但是我们又必须要用到这个式子,我们就想有没有加快的方法,其实做多了题会发现这是矩阵快速幂的形式 矩阵快速幂就是把你原有的递推式再加快执行, 但是 fn

Python内置函数之enumerate() 函数

喜欢而已 提交于 2021-01-11 08:22:47
enumerate() 函数属于python的内置函数之一; python内置函数参考文档: python内置函数 转载自enumerate参考文档: python-enumerate() 函数 Python内置函数之enumerate() 函数 描述 enumerate() 函数用于将一个可遍历的数据对象(如列表、元组或字符串)组合为一个索引序列,同时列出数据和数据下标,一般用在 for 循环当中。 Python 2.3. 以上版本可用,2.6 添加 start 参数。 语法 以下是 enumerate() 方法的语法: enumerate(sequence, [start=0]) 参数 sequence -- 一个序列、迭代器或其他支持迭代对象。 start -- 下标起始位置。 返回值 返回 enumerate(枚举) 对象。 实例 以下展示了使用 enumerate() 方法的实例: >>>seasons = [ ' Spring ' , ' Summer ' , ' Fall ' , ' Winter ' ] >>> list(enumerate(seasons)) [(0, ' Spring ' ), (1, ' Summer ' ), (2, ' Fall ' ), (3, ' Winter ' )] >>> list(enumerate(seasons, start

[阅读笔记]Attention Is All You Need

无人久伴 提交于 2021-01-11 08:13:34
Transformer 本文介绍了 Transformer 结构, 是一种 encoder-decoder , 用来处理序列问题, 常用在NLP相关问题中. 与传统的专门处理序列问题的encoder-decoder相比, 有以下的特点: 结构完全 不依赖于CNN和RNN 完全依赖于 self-attention 机制, 是一种 堆叠的self-attention 使用 全连接层 逐点 point-wise 计算的 整个Transformer的结构图如下所示: Encoder and Decoder Stacks 如上所说, Transformer是基于 stacked self-attention 的, stack 方式具体为: Encoder Encoder是由$N=6$个独立的层堆叠而成的, 每层有两个子层: 第一个层为 multi-head self-attention 结构 第二层为 simple, position-wise fully connected feed-forward network , 即基于位置的简单全连接反馈网络 在每个子层又引入了 residual connection , 具体的做法为每个子层的输入与输出 相加 , 这就要求每个子层的输入与输出的维度是完全相等的. 然后再使用 layer normalization . 因此每个子层的最终输出为:

论文笔记:Attention Is All You Need

半城伤御伤魂 提交于 2021-01-11 07:53:14
Attention Is All You Need 2018-04-17 10:35:25 Paper: http://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf Code(PyTorch Version): https://github.com/jadore801120/attention-is-all-you-need-pytorch Video Tutorial: https://www.youtube.com/watch?v=S0KakHcj_rs 另一个不错的关于这个文章的 Blog: https://kexue.fm/archives/4765 1. Introduction:   现有的做 domain translation 的方法大部分都是基于 encoder-decoder framework,取得顶尖性能的框架也都是 RNN + Attention Mechanism 的思路。而本文别出心裁,仅仅依赖于 attention 机制,就可以做到很好的性能,并且,这种方法并适用于并行(parallelization)。    2. Model Architecture :   大部分神经序列转换模型(neural sequence transduction models)都有 encoder

Python enumerate() 函数笔记

做~自己de王妃 提交于 2021-01-11 03:03:06
enumerate函数说明: 函数原型:enumerate(sequence, [start=0]) #第二个参数为指定索引 功能:将可循环序列sequence以start开始分别列出序列数据和数据下标 即对一个可遍历的数据对象(如列表、元组或字符串),enumerate会将该数据对象组合为一个索引序列,同时列出数据和数据下标 举例说明: 存在一个sequence,对其使用enumerate将会得到如下结果: start sequence[0] start+1  sequence[1] start+2 sequence[2]...... 具体例子: a = (1, 2, 3) for i, j in enumerate(a): print(i, j)     以上代码运行结果为:0 1               1 2               2 3 代码实例: # 字符串 st = ' a,1, reg ' for i, value in enumerate(st): print (i, value) # 数组 a = (1, ' a ' , ' 太阳 ' ) for i, value in enumerate(a): print (i, value) # 列表 li = [1, 2, 3, 4 ] for i, value in enumerate(li): print

初识cocos creator的一些问题

让人想犯罪 __ 提交于 2021-01-10 16:49:38
本文的cocos creator版本为v1.9.0 1.color赋值 cc.Label组件并没有颜色相关的属性,但是Node有color的属性。 //如果4个参数,在ios下有问题 let rgb = [13,225,122]; node.color = new cc.Color(...rgb);    下面是错误的写法: node.color="rgba(13,225,122,1)" node.color="#ff00000"    2.坐标系 子节点的位置属性(position)默认情况下是相对于父节点的坐标。说道位置属性,其实是当前节点(节点是一个块,选其中的一个点作为基准点:锚点)的锚点的位置(anchor) 所以最终呈现出的位置跟这些因素有关: 1)父子节点的锚点 2)父子节点的位置(position) 3.添加事件无效 如果当前节点的size为0,添加事件是无效的,即使子节点有大小,也不能监测到事件。 4.action回调 runAction方法执行的过程中,我们需要做一些action动作之外的事情,比如改变某个变量的值。 这时候需要用到:cc.callFunc()。他可以像一些动作放在runAction()里实现回调。官方例子: //声明cc.callFunc var finished = cc.callFunc(function(target, score) {

UUID简记

99封情书 提交于 2021-01-10 13:19:56
一、概述 wiki上的解释: A universally unique identifier ( UUID ) is a 128-bit number used to identify information in computer systems. 128位的UUID也并非没有重复的可能,理论证明这个重复的概率很小近乎为零以至于可以忽略。 UUID规范的表示格式通常用32个16进制字符表示(也就是"0" / "1" / "2" / "3" / "4" / "5" / "6" / "7" / "8" / "9" /"a" / "b" / "c" / "d" / "e" / "f"这16个字符)。 这32个字符通常被连字符“-”分成5个组(简记为 8-4-4-4-12格式 ),如下: 8a2986cc-256d-470b-bc3d-027113f76553 5个组所表示的含义如下表所示(图表来自wiki): UUID record layout Name Length (bytes) Length (hex digits) Contents time_low 4 8 integer giving the low 32 bits of the time time_mid 2 4 integer giving the middle 16 bits of the time time_hi

海马体启发的记忆模型

本秂侑毒 提交于 2021-01-10 08:28:53
记忆是人类智能的关键,我们因为记忆可以把过去和当下整合成为一体, 并且可以预测未来。 记忆不仅是一个信息承载的工具, 更是世界模型的本体, 它无时无刻不在刻画未来, 也被当下影响, 可以说, 没有记忆,就没有智能。 然而当下深度学习模型有关记忆的模型确是一大空缺, RNN模拟了神经网络通过循环传递导致的信息缓存效应(类似人与人之间互相喊话来留存信息),而LSTM利用输入门和遗忘门进一步加强了这个机制引入了更加可控的信息暂留机制。 基于NTM的模型把过去的信息和常识存储在类似硬盘的存储器里,网络只需要学习读和写。 而transformer类模型把这种根据当下的信息索引既往的信息的能力加强到极致,某种程度,它们绕开了基于问题,而是机械的把所有的信息一次并行的输入到模型里, 由于可以微分的强大注意力机制, 使得它们的能力被广为使用。 我们说生物系统与之不同的是, 记忆不是为了存储而是为了预测( The hippocampus as a predictive map - Kimberly L. Stachenfeld ),这点尤其体现在模仿海马体的模型里。生物系统的灵活记忆机制纳入到系统里,就需要模拟大脑, 尤其是生物系统的海马体。 一种经典的理论认为海马体是感知信息进入生物长期记忆的门户,信息在这里被类似 “指针”一样的东西索引起来, 这个指针既可以是基于时间(情景记忆)也可以是基于空间

【高速接口-RapidIO】3、RapidIO串行物理层的包传输过程

笑着哭i 提交于 2021-01-10 01:59:25
一、引言   前几篇文章已经谈到RapidIO的协议,串行物理层与控制符号。   RapidIO协议包括读事务(NREAD),写事务(NWRITE),流写事务(SWRITE),有响应的写事务(NWRITE_R),原子操作(ATOMIC),维护操作(MAINTENANCE),门铃事务(DOORBELL)和消息(MESSAGE)这几种。   RapidIO的串行物理层是基于SERDES的,关于SERDES涉及的一些相关技术请阅读《SERDES关键技术总结》(链接:https://www.cnblogs.com/liujinggang/p/10125727.html)这篇文章。SERDES分为PCS(物理编码子层)和PMA(物理媒介附属子层)两层,其中PCS是由纯数字电路组成,可以用软逻辑来实现,而PMA则既包括了数字电路,也包括了模拟电路,不能用纯逻辑实现。   控制符号是被串行链路端口所使用的消息单元,它用来管理串行链路操作的各个功能,包括链路维护,包界定,包应答,错误报告和错误恢复等。   有了前面的基础以后,接下来就谈一谈RapidIO串行物理层包的传输过程。 二、串行物理层的PCS层与PMA层   物理编码子层(PCS)与物理媒介附属子层(PMA)提供SERDES能够进行高速串行数据传输的基本功能(术语PCS和PMA出自IEEE 802.3 )。主要包括8B/10B编码