Sequence

25个必须记住的SSH命令

*爱你&永不变心* 提交于 2020-08-07 19:07:50
http://www.cnblogs.com/weafer/archive/2011/06/10/2077852.html OpenSSH是SSH连接工具的免费版本。telnet,rlogin和ftp用户可能还没意识到他们在互联网上传输的密码是未加密的,但SSH是加密的,OpenSSH加密所有通信(包括密码),有效消除了窃听,连接劫持和其它***。此外,OpenSSH提供了安全隧道功能和多种身份验证方法,支持SSH协议的所有版本。 SSH是一个非常伟大的工具,如果你要在互联网上远程连接到服务器,那么SSH无疑是最佳的候选。下面是通过网络投票选出的25个最佳SSH命令,你必须牢记于心。 (注:有些内容较长的命令,在本文中会显示为截断的状态。如果你需要阅读完整的命令,可以把整行复制到您的记事本当中阅读。) 1、复制SSH密钥到目标主机,开启无密码SSH登录 ssh-copy-id user@host 如果还没有密钥,请使用ssh-keygen命令生成。 2、从某主机的80端口开启到本地主机2001端口的隧道 ssh -N -L2001:localhost:80 somemachine 现在你可以直接在浏览器中输入http://localhost:2001访问这个网站。 3、将你的麦克风输出到远程计算机的扬声器 dd if=/dev/dsp | ssh -c arcfour -C

Kaggle: Tweet Sentiment Extraction 方法总结 Part 1/2: 常用方法总结

这一生的挚爱 提交于 2020-08-07 16:35:58
文章目录 往期文章目录链接 Note Before we start Tweet Sentiment Extraction What is the MAGIC? Common Methods Label Smoothing Implementation of Label Smoothing In tensorflow In pytorch Multi-sample dropout Implementation Stochastic Weight Averaging (SWA) Different learning rate settings for encoder and head Customized Layer Initialization 往期文章目录链接 往期文章目录链接 Note This post is the first part of overall summarization of the competition. The second half is here . Before we start I attended two NLP competition in June, Tweet Sentiment Extraction and Jigsaw Multilingual Toxic Comment Classification , and I’m happy

具有注意力机制的seq2seq模型

ε祈祈猫儿з 提交于 2020-08-07 04:07:09
作者|Renu Khandelwal 编译|VK 来源|Towards Data Science 在本文中,你将了解: 为什么我们需要seq2seq模型的注意力机制? Bahdanua的注意力机制是如何运作的? Luong的注意力机制是如何运作的? 什么是局部和全局注意力? Bahdanua和Luong注意力机制的关键区别 什么是注意力,为什么我们需要seq2seq模型的注意力机制 让我们考虑两个场景,场景一,你正在阅读与当前新闻相关的文章。第二个场景是你正在阅读准备考试。两种情况下的注意力水平是相同还是不同? 与新闻文章相比,你在准备考试时会相当注意阅读。在准备测试的时候,你会更加关注关键词来帮助你记住一个简单或复杂的概念。这也意味着我们要专注于某一特定领域的任何深度学习任务。 序列到序列(Seq2Seq)模型使用编码器-解码器架构 。 seq2seq的几个场景 神经机器翻译(NMT) 图像字幕 聊天机器人 文本摘要等 Seq2Seq模型将源序列映射到目标序列。在神经机器翻译的情况下,源序列可以是英语,目标序列可以是印地语。 我们将英语源语句传递给编码器;编码器将源序列的完整信息编码为单个实值向量,也称为上下文向量。然后,这个上下文向量被传递到解码器上,以生成目标语言(如印地语)中的输出序列。上下文向量负责将整个输入序列汇总为单个向量。 如果输入的句子很长

Mycat3/4---分库分表设规则

我怕爱的太早我们不能终老 提交于 2020-08-06 15:52:25
1.Mycat内置的常用分片规则 分片规则4大类:范围、列表、哈希、混合上面的几种 (1)分片枚举(列表分片) 通过在配置文件中配置可能的枚举id,自己配置分片,本规则适用于特定的场景,比如有些业务需要按照省份或区县来做保存,而全国省份区县固定的,这类业务使用本条规则,配置如下: function分片函数中配置说明 : I% : io.mycat.route.function.PartitionByFileMap mapFile标识配置文件名称; type默认值为0,0表示Integer,非零表示String; defaultNode默认节点:小于0表示不设置默认节点,大于等于0表示设置默认节点为第几个数据节点。 默认节点的作用:枚举分片时,如果碰到不识别的枚举值,就让它路由到默认节点 如果不配置默认节点(defaultNode值小于0表示不配置默认节点),碰到不识别的枚举值就会报错。 like this: can't find datanode for sharding column:column_name val:ffffffff sharding-by-enum.txt放置在conf/下,配置内容示例: 10000 = 0 #字段值为10000的放到0号数据节点 10010 = 1 示例 : 客户表 t_customer CREATE TABLE t_customer (

Python 为什么只需一条语句“a,b=b,a”,就能直接交换两个变量?

蓝咒 提交于 2020-08-06 15:13:53
从接触 Python 时起,我就觉得 Python 的元组解包(unpacking)挺有意思,非常简洁好用。 最显而易见的例子就是多重赋值,即在一条语句中同时给多个变量赋值: >>> x, y = 1, 2 >>> print(x, y) # 结果:1 2 在此例中,赋值操作符“=”号的右侧的两个数字会被存入到一个元组中,即变成 (1,2),然后再被解包,依次赋值给“=”号左侧的两个变量。 如果我们直接写 x = 1,2 ,然后打印出 x,或者在“=”号右侧写成一个元组,就能证实到这一点: >>> x = 1, 2 >>> print(x) # 结果:(1, 2) >>> x, y = (1, 2) >>> print(x, y) # 结果:1 2 一些博客或公众号文章在介绍到这个特性时,通常会顺着举一个例子,即基于两个变量,直接交换它们的值: >>> x, y = 1, 2 >>> x, y = y, x >>> print(x, y) # 结果:2 1 一般而言,交换两个变量的操作需要引入第三个变量。道理很简单,如果要交换两个杯子中所装的水,自然会需要第三个容器作为中转。 然而,Python 的写法并不需要借助中间变量,它的形式就跟前面的解包赋值一样。正因为这个形式相似,很多人就误以为 Python 的变量交换操作也是基于解包操作。 但是,事实是否如此呢? 我搜索了一番

seq2seq聊天机器人

馋奶兔 提交于 2020-08-06 10:55:14
seq2seq聊天机器人 作者:魏祖昌 一、背景介绍 人工智能技术的进步,语音识别技术、自然语言处理等技术的成熟,智能客服的发展很好的承接当下传统人工客服所面临的挑战。智能客服能够24小时在线为不同用户同时解决问题,工作效率高等特点,这是传统人工客服不能替代的,它能为公司节省大量的人工客服成本。在这次疫情当中,由于总总原因,大家肯定多多少少都见识过各种各样的智能客服。本文就基于seq2seq来介绍一个聊天机器人。 二、seq2seq Seq2Seq即Sequence to Sequence,是一种时序对映射的过程,实现了深度学习模型在序列问题中的应用,其中比较突出的是自然语言中的运用。它主要由Encoder和Decoder两个部分组成,正如图一所示。 图一:论文中seq2seq结构( https://arxiv.org/pdf/1409.3215.pdf ) seq2seq模型的encoder非常简单(上图中ABC对应的部分),就是RNN,可以是多层(GRU,LSTM)。decoder在训练和测试的时候,稍微有点不同。decoder训练的时候输入由两部分组成,一部分是encoder的last state,另一部分是target序列,如上图中的第一个<EOS> WXYZ;其中两个<EOS>表示的是序列开始符和结束符;decoder测试的时候输入也是由两部分组成

kafka的Producers分析

大憨熊 提交于 2020-08-06 06:26:12
生产者分区的原则 分区的意义 提升了水平扩展能力 提供并发能力 分区的原则 指明partition的情况下,直接将指明的值作为partition的值(指定存放分区) 没有指明partition,但有key的情况下,会将key的hash值与topic的partition数量进行取余得到partition值 什么都没有指定,在第一发消息的时候,系统会随机生成一个整数来对topic的partition数量进行取余得到partition值,后面每次都对这个已经生成的随机数进行+1,这就得到了round-robin算法了 Kafka副本的复制方案 Kafka内部发送响应的机制:为了保证producer的数据能够可靠的发送并保存到topic上,topic的每个partition收到发送的数据后,都需要向生产者发送ACK,如果生产者收到ACK,就会进行下一轮发送,如果没有收到就会重新发送。 副本的复制方式:Producer--->leader(follower1,follower2)。 向Producer发送ACK有以下两个方案: 确保半数以上的follower完成同步,就发送ACK,优点是延迟低,在选举新的leader的时候,如果容忍n台节点故障,就需要2n+1个副本 完成全部follower的同步,才发送ACK,缺点是延迟高,在选举新的leader的时候,如果容忍n台节点故障,只就需要n

信息抽取——实体关系联合抽取

眉间皱痕 提交于 2020-08-06 05:28:10
目录 简介 实体关系联合抽取 Model 1: End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures Model 2: Joint Extraction of Entities and Relations Based on a Novel Tagging Scheme Model 3: Joint entity recognition and relation extraction as a multi-head selection problem Model 4: 基于DGCNN和概率图的轻量级信息抽取模型 Model 5: Entity-Relation Extraction as Multi-turn Question Answering Model 6: A Novel Hierarchical Binary Tagging Framework for Joint Extraction of Entities and Relations 小结 简介 通常,早期的信息抽取将实体抽取和关系抽取看作串联的任务,这样的串联模型在建模上相对更简单,但这样将实体识别和关系抽取当作两个独立的任务明显会存在一系列的问题: 两个任务的解决过程中没有考虑到两个子任务之间的相关性

work pacakge 区别 activity

折月煮酒 提交于 2020-08-06 03:57:11
活动用来:排序,估算时间,制定进度计划 实际你项目管理的时候,也要管理到活动层面的 WBS最底层就是工作包 活动是动词 工作包是名词 活动是工作包的子集 一个工作包会有一到多个活动。 Work Package Definition The work defined at the lowest level of the work breakdown structure for which cost and duration can be estimated and managed. Work packages are smallest deliverable in a project. They are reside at the lowest level of a WBS. A Work Package is smallest level of deliverable. is lowest component of a WBS.* cannot be broken down further. It cannot be decomposed into a smaller level deliverable. provides some tangible value to the project stakeholder(s). is recognized, required and