Sequence

Python实现斐波那契数列

柔情痞子 提交于 2020-10-29 04:58:44
程序分析: 斐波那契数列(Fibonacci sequence),又称黄金分割数列,指的是这样一个数列:0、1、1、2、3、5、8、13、21、34、……。 在数学上,费波那契数列是以递归的方法来定义: F0 = 0 (n=0) F1 = 1 (n=1) Fn = F[n-1]+ F[n-2](n=>2) 程序源代码: 方法一: #!/usr/bin/python # -*- coding: UTF-8 -*- # 斐波那契数列 def fib(n): a, b = 1, 1 for i in range(n-1): a, b = b, a+b return a # 输出了第10个斐波那契数列 print fib(10) 方法二: #!/usr/bin/python # -*- coding: UTF-8 -*- # 斐波那契数列 # 使用递归 def fib(n): if n == 1 or n == 2: return 1 return fib(n - 1) + fib(n - 2) # 输出了第10个斐波那契数列 print fib(10) 以上实例输出了第10个斐波那契数列,结果为: 55 方法三:   如果你需要输出指定个数的斐波那契数列,可以使用以下代码: #!/usr/bin/python # -*- coding: UTF-8 -*- # 斐波那契数列 def

[深度应用]·Keras实现Self-Attention文本分类(机器如何读懂人心)

老子叫甜甜 提交于 2020-10-29 02:21:04
[深度应用]·Keras实现Self-Attention文本分类(机器如何读懂人心) 配合阅读: [深度概念]·Attention机制概念学习笔记 [TensorFlow深度学习深入]实战三·分别使用DNN,CNN与RNN(LSTM)做文本情感分析 笔者在 [深度概念]·Attention机制概念学习笔记 博文中,讲解了Attention机制的概念与技术细节,本篇内容配合讲解,使用Keras实现Self-Attention文本分类,来让大家更加深入理解Attention机制。 作为对比,可以访问 [TensorFlow深度学习深入]实战三·分别使用DNN,CNN与RNN(LSTM)做文本情感分析 ,查看不同网络区别与联系。 一、Self-Attention概念详解 了解了模型大致原理,我们可以详细的看一下究竟Self-Attention结构是怎样的。其基本结构如下 ​ 对于self-attention来讲,Q(Query), K(Key), V(Value)三个矩阵均来自同一输入,首先我们要计算Q与K之间的点乘,然后为了防止其结果过大,会除以一个尺度标度 ​ ,其中 ​ 为一个query和key向量的维度。再利用Softmax操作将其结果归一化为概率分布,然后再乘以矩阵V就得到权重求和的表示。该操作可以表示为 ​ 这里可能比较抽象,我们来看一个具体的例子(图片来源于 https:/

PAT甲级第二次真题练习

萝らか妹 提交于 2020-10-29 01:28:53
1005 Spell It Right (20)(20 分) 提问 Given a non-negative integer N, your task is to compute the sum of all the digits of N, and output every digit of the sum in English. Input Specification: Each input file contains one test case. Each case occupies one line which contains an N (<= 10^100^). Output Specification: For each test case, output in one line the digits of the sum in English words. There must be one space between two consecutive words, but no extra space at the end of a line. Sample Input: 12345 Sample Output: one five 作者: CHEN, Yue 单位: PAT联盟 时间限制: 400ms 内存限制: 64MB 代码长度限制: 16KB #include

语音合成最新进展

Deadly 提交于 2020-10-28 06:05:08
Tacotron2 前置知识 通过时域到频域的变换,可以得到从侧面看到的 频谱 ,但是这个频谱并没有包含时域的中全部的信息,因为频谱只代表各个频率正弦波的振幅是多少,而没有提到相位。基础的正弦波$Asin(wt+\theta)$中,振幅、频率和相位缺一不可。不同相位决定了波的位置,所以对于频域分析,仅有频谱是不够的,还需要一个相位谱。 时域谱:时间-振幅 频域谱:频率-振幅 相位谱:相位-振幅 参见: 傅里叶分析之掐死教程(完整版)更新于2014.06.06 传统语音合成: 单元挑选和拼接:将事先录制好的语音波形小片段缝合在一起。边界人工痕迹明显 统计参数:直接合成语音特征的平滑轨迹,交由声码器合成语音。发音模糊不清且不自然 Tacotron2分为两部分: 一个seq2seq结构的特征预测网络,将字符向量映射到梅尔声谱图 一个WaveNet修订版,将梅尔声谱图合成为时域波形 梅尔频谱是对短时傅里叶变换获得的声谱(即线性声谱)频率轴施加一个非线性变换,其依据人耳特性:低频细节对语音的理解十分关键,而高频细节可以淡化,对频率压缩变换而得。Tacotron2使用低层的声学特征梅尔声谱图来衔接两个部分的原因: 梅尔频谱容易通过时域波形计算得到 梅尔频谱对于每一帧都是相位不变的,容易使用均方差(MSE)训练 梅尔声谱抛弃了相位信息,而像Griffin-Lim算法对抛弃的相位信息进行估计

SSE图像算法优化系列二十四: 基于形态学的图像后期抗锯齿算法--MLAA优化研究。

与世无争的帅哥 提交于 2020-10-26 21:32:57
偶尔看到这样的一个算法,觉得还是蛮有意思的,花了将近10天多的时间研究了下相关代码。 以下为百度的结果:MLAA全称Morphological Antialiasing,意为形态 抗锯齿 是AMD推出的完全基于CPU处理的 抗锯齿 解决方案。对于游戏厂商使用的MSAA 抗锯齿 技术不同,Intel最新推出的MLAA将跨越边缘像素的前景和背景色进行混合,用第2种颜色来填充该像素,从而更有效地改进图像边缘的变现效果,这就是MLAA技术。   其实就是这个是由Intel的工程师先于2009年提出的技术,但是由AMD将其发发扬光大。   整个算法的渲染工作全部是交给 CPU 来完成,在这里GPU的作用只是将最终渲染出来的画面传给显示器。所以这项技术最大的优势是可以让GPU不再承担 抗锯齿 的工作,大大降低GPU在运行3D游戏时的压力。相对于以前的 抗锯齿 技术,MLAA采用Post-filtering(后滤波)机制,好处就在于可以按照颜色是否连续来驱动抗锯齿,而以前只能在初始边缘来抗锯齿。   也就是说这项技术可以在后期来修补那些由锯齿的图,因此我们可以想到其另外一些用处,后续会对这方面进行一个简单的扩展。    如上面两图,左侧图中树叶的边缘有明显的锯齿状图像,而右侧为经过MLAA算法处理后的图,边缘光滑了许多,而且其他部位未受任何的画质影响。   关于这方面的论文和资料主要有

Keras版Sequence2Sequence对对联实战——自然语言处理技术

给你一囗甜甜゛ 提交于 2020-10-26 08:23:03
今天我们来做NLP(自然语言处理)中Sequence2Sequence的任务。其中Sequence2Sequence任务在生活中最常见的应用场景就是机器翻译。除了机器翻译之外,现在很流行的对话机器人任务,摘要生成任务都是典型的Sequence2Sequence。Sequence2Sequence的难点在于模型需要干两件比较难的事情: 语义理解(NLU:Natural Language Understanding) :模型必须理解输入的句子。 句子生成(NLG:Natural Language Generation) :模型生成的句子需符合句法,不能是人类觉得不通顺的句子。 想想看,让模型理解输入句子的语义已经很困难了,还得需要它返回一个符合人类造句句法的序列。不过还是那句话,没有什么是深度学习不能解决的,如果有,当我没说上句话。 Sequence2Sequence任务简介 Sequence2Sequence是一个给模型输入一串序列,模型输出同样是一串序列的任务和序列标注有些类似。但是序列标注的的输出是定长的,标签于输入一一对应,而且其标签类别也很少。Sequence2Sequence则不同,它不需要输入与输出等长。 Sequence2Sequence算法简介 Sequence2Sequence是2014年由Google 和 Yoshua Bengio提出的,这里分别是

【RPA Developer Advanced-Robotic Enterprise Framework Deep Dive】机器人企业框架深入挖掘Walkthrough – UiDemo

我们两清 提交于 2020-10-25 10:59:20
课程目标: 1、 解释如何构建ReFramework模板; 2、 解释ReFramework模板是如何工作的; 3、 使用ReFramework来自动化您自己的流程。 一、课程里面涉及的系统 ACME System 1 : https://acme-test.uipath.com/login 可以先去注册一个,需要注意的地方: 确保你使用的电子邮件地址与你在学院注册时使用的相同。 第一次成功登录时需要执行的第一步是访问User Options部分并单击Reset Test Data按钮。 为您的用户帐户生成一组完整的测试数据。 它包括供应商,发票,报告,客户,支票,帐户等。 所有用户都需要在课程开始前安装UiPath Studio(试用版或社区版)。 我注册了下,貌似不行。。。 多试几次刷新下页面,然后底下就会出现选择验证码,然后就能注册成功了。进入页面 按提示操作,先初始化数据。 User Options -> Reset Test Data 然后就可以跟着课程的步骤实现。 二、练习项目 业务场景: 有一个叫‘UiDemo’的程序,需要实现自动化流程。需要将Excel中的数据,输入到UiDemo中。这个不难,需要一个Read Range读取Excel中的数据范围,存入DataTable,然后遍历DataTable中的每一行,写入到UiDemo程序中。然而

tensorflow文本分类实战——卷积神经网络CNN

别来无恙 提交于 2020-10-25 05:32:33
首先说明使用的工具和环境:python3.6.8 tensorflow1.14.0 centos7.0(最好用Ubuntu)   关于环境的搭建只做简单说明,我这边是使用pip搭建了python的虚拟环境(virtualenv),并在虚拟环境中安装tensorflow。详细步骤可以查看tensorflow的 官网 。 注:本文参考于 基于tensorflow、CNN、清华数据集THUCNews的新浪新闻文本分类 训练数据   训练(train.txt)和测试(test.txt)数据,两个文件的分类相同为100个分类,其中test.txt每个类下有200条测试数据,train.txt每个类下有1800条训练数据;数据共有两列,第一列为标签信息 第二列为标题,见下图 百度云链接:https://pan.baidu.com/s/1MZX8SOJ7lerov_UqZhSWeQ 提取码:9nvj 训练代码 闲话少说直接上代码,支持训练模型固化,代码粘贴前都经过了测试,均可复现,并且在相应位置给出了注释,有任何疑问欢迎留言,不忙就会回复。 # ##################cnn训练代码################# # coding=utf8 import os import codecs import random import heapq import numpy as np

MySQL并行复制

时光毁灭记忆、已成空白 提交于 2020-10-24 19:56:41
一、MySQL的主从复制 1.1 主从复制基本原理   MySQL的主从架构依赖于MySQL Binlog功能,Master节点上产生Binlog并且写入到文件中。   Master节点上启动一个DUMP线程:当Slave节点I/O线程连接Master时,Master创建这个线程,DUMP线程负责从Master的binlog文件读取记录,然后发送给Slave。每个连接到Master的Slave都有一个DUMP线程。   Slave节点上启动两个线程:IO线程和SQL线程,IO线程从MySQL上拉取Binlog日志并写入到本地的RelayLog日志;SQL线程不断从RelayLog日志中读取日志并解析执行,这样就可以保证所有在主服务器上执行过的SQL语句都在从服务器上一模一样的执行过一遍。 1.2 复制延迟   复制延迟,指的就是一个事务在Master执行完成以后,要多久以后才能在Slave上执行完成。   由于对Binlog文件以及RelayLog文件的读写均为顺序操作,在生产环境中,Slave上的IO线程对Binlog文件的Dump操作是很少产生延迟的。实际上,从MySQL5.5开始,MySQL官方提供了半同步复制插件,每个事务的Binlog需要保证传输到Slave写入RelayLog后才能提交,这种架构在主从之间提供了数据完整性

IPv6实验MTU和PMTU

不问归期 提交于 2020-10-24 13:35:57
4 台路由器运行RIPng,每台设备配置loopback地址, 配置举例: # ipv6 # ripng 1 # interface GigabitEthernet0/0/0 ipv6 enable ipv6 address auto link-local ripng 1 enable # interface GigabitEthernet0/0/1 ipv6 enable ipv6 address auto link-local ripng 1 enable # interface LoopBack0 ipv6 enable ipv6 address 2001::2/128 ripng 1 enable # 测试源IP为R1的loop0:2001::1,目的IP为R4的loop0:2001::4 1 默认配置MTU1500 默认配置下,接口的MTU值为1500 默认配置下ping 1000字节的包 ping ipv6 -s 1000 -c 1 2001::4 ICMP Request: IPv6包的总长1062字节=14字节链路层+40字节IPv6头+8字节ICMPv6头+1000字节数据,payload 1008字节=8字节ICMPv6头+1000字节数据 链路层 : 14 字节,6字节目的MAC,6字节源MAC,2字节以太网类型。 IPv6层 : 固定40 字节 ICMPv6