Yue

PAT A1056. Mice and Rice (25)

大兔子大兔子 提交于 2021-02-18 08:00:40
原文链接: PAT A1056. Mice and Rice (25) 1056. Mice and Rice (25) https://www.patest.cn/contests/pat-a-practise/1056 时间限制 100 ms 内存限制 65536 kB 代码长度限制 16000 B 判题程序 Standard 作者 CHEN, Yue Mice and Rice is the name of a programming contest in which each programmer must write a piece of code to control the movements of a mouse in a given map. The goal of each mouse is to eat as much rice as possible in order to become a FatMouse. First the playing order is randomly decided for NP programmers. Then every NG programmers are grouped in a match. The fattest mouse in a group wins and enters the next turn.

mariadb(mysql)[详解]

痴心易碎 提交于 2021-01-09 12:40:20
本文链接: https://blog.csdn.net/root__oo7/article/details/82817501 安装: [root@bogon ~]# yum install mariadb -y #客户端 [root@bogon ~]# yum install mariadb-server -y #服务端 启动服务: [root@bogon ~]# systemctl start mariadb [root@bogon ~]# ss -tnl | grep 3306 #查看端口确定是否被监听 LISTEN 0 50 *:3306 *:* 说明:若是mysql启动 将mariadb改为mysql即可 进入mariadb: [root@bogon ~]# mysql #注意 Welcome to the MariaDB monitor. Commands end with ; or \g. Your MariaDB connection id is 2 Server version: 5.5.56-MariaDB MariaDB Server Copyright (c) 2000, 2017, Oracle, MariaDB Corporation Ab and others. Type 'help;' or '\h' for help. Type '\c' to

yaml文件 *.yml 写法简介

≡放荡痞女 提交于 2021-01-04 07:02:23
YAML(Yet Another Markup Language)(发音 /ˈjæməl/ ) 一种基于Unicode容易阅读,容易和脚本语言交互的,用来表达资料序列的编程语言。 适应场景 脚本语言:由于实现简单,解析成本很低,YAML 特别适合在脚本语言中使用 序列化: YAML是由宿主语言数据类型直转,的比较适合做序列化。 配置文件:写 YAML 要比写 XML 快得多(无需关注标签或引号),并且比 INI 文档功能更强。由于兼容性问题,不同语言间的数据流转建议不要用 YAML。 语言优点 YAML易于人们阅读。 YAML数据在编程语言之间是可移植的。 YAML匹配敏捷语言的本机数据结构。 YAML具有一致的模型来支持通用工具。 YAML支持单程处理。 YAML具有表现力和可扩展性。 YAML易于实现和使用。 YAML 语法 使用空格 Space 缩进表示分层,不同层次之间的缩进可以使用不同的空格数目,但是同层元素一定左对齐,即前面空格数目相同(不能使用 Tab,各个系统 Tab对应的 Space 数目可能不同,导致层次混乱) ‘#’表示注释,只能单行注释,从#开始处到行尾 破折号后面跟一个空格(a dash and space)表示列表 用冒号和空格表示键值对 key: value 简单数据(scalars,标量数据)可以不使用引号括起来,包括字符串数据

AAAI21 Summarization

孤街醉人 提交于 2021-01-03 10:46:06
Movie Summarization via Sparse Graph Construction Pinelopi Papalampidi, Frank Keller, Mirella Lapata Topic-Oriented Spoken Dialogue Summarization for Customer Service with Saliency-Aware Topic Modeling Yicheng Zou, Lujun Zhao, Yangyang Kang, Jun Lin, Minlong Peng, Zhuoren Jiang, Changlong Sun, Qi Zhang, Xuanjing Huang, Xiaozhong Liu Unsupervised Summarization for Chat Logs with Topic-Oriented Ranking and Context-Aware Auto-Encoders Yicheng Zou, Jun Lin, Lujun Zhao, Yangyang Kang, Zhuoren Jiang, Changlong Sun, Qi Zhang, Xuanjing Huang, Xiaozhong Liu Unsupervised Abstractive Dialogue

COPOD:用「统计」+「机器学习」检测异常

有些话、适合烂在心里 提交于 2020-12-21 14:52:34
1. 背景知识 异常检测(outlier detection), 从最简单的角度出发就是看看数值偏离均值有多远 。拿最简单的一维数据来说,可以先算一下均值( )和标准方差( ),那么离均值2个或者3个以外的数值就可以简单的被认为是异常。如果假设数据符合正态分布的话,大概就是图中黄色标注的位置。 如果我们能够得知数据的分布(比如CDF的话),那么我们还可以计算出一个样本可能处于分布最左边和最右边的概率 。 但实际情况中,有两个问题使得这个方法并不奏效。 首先真实数据往往不是一维的,而是有很多个维度 ?最简单的假设当然是每个维度互相独立,那么我们可以分别求每个维度上的异常程度,之后求所有维度上的平均异常,或者看是否有几个维度的异常程度比较大。但这个方法有个核心局限: 并不是所有的维度间都是独立的,他们之间往往有一定的关联性 !所以这种假设会忽视掉这种关系,导致建模过分简单。 其次就是单纯看 一个点是否属于离均值很远可能是盲目的 ,因为分布有很多种,并不是每种分布都像正态分布这么优美。更加合理的方法是去估计一个点的尾端概率(tail probabilty),也就是在分布极端位置的可能性。 结合这两个目的: 如果我们能够很好的估计出多维数据上的累计分布(multivariate CDF),那么我们就可以尝试去估算每个点的尾端概率,也就可以对异常情况进行评估。 2. COPOD: COPOD

BZOJ4872: [Shoi2017]分手是祝愿

会有一股神秘感。 提交于 2020-12-12 05:15:36
Time Limit: 20 Sec Memory Limit: 512 MB Submit: 497 Solved: 326 [ Submit ][ Status ][ Discuss ] Description Zeit und Raum trennen dich und mich. 时空将你我分开。B 君在玩一个游戏,这个游戏由 n 个灯和 n 个开关组成,给定这 n 个灯的初始状态,下标为 从 1 到 n 的正整数。每个灯有两个状态亮和灭,我们用 1 来表示这个灯是亮的,用 0 表示这个灯是灭的,游戏 的目标是使所有灯都灭掉。但是当操作第 i 个开关时,所有编号为 i 的约数(包括 1 和 i)的灯的状态都会被 改变,即从亮变成灭,或者是从灭变成亮。B 君发现这个游戏很难,于是想到了这样的一个策略,每次等概率随机 操作一个开关,直到所有灯都灭掉。这个策略需要的操作次数很多, B 君想到这样的一个优化。如果当前局面, 可以通过操作小于等于 k 个开关使所有灯都灭掉,那么他将不再随机,直接选择操作次数最小的操作方法(这个 策略显然小于等于 k 步)操作这些开关。B 君想知道按照这个策略(也就是先随机操作,最后小于等于 k 步,使 用操作次数最小的操作方法)的操作次数的期望。这个期望可能很大,但是 B 君发现这个期望乘以 n 的阶乘一定 是整数,所以他只需要知道这个整数对

暴力+辗转相除法——N个数求和

一笑奈何 提交于 2020-11-23 11:32:20
题目来源 PTA 团体程序设计天梯赛-练习集 L1-009 N个数求和 (20分) https://pintia.cn/problem-sets/994805046380707840/problems/994805133597065216 题目描述 本题的要求很简单,就是求N个数字的和。麻烦的是,这些数字是以 有理数分子/分母 的形式给出的,你输出的和也必须是有理数的形式。 输入格式: 输入第一行给出一个正整数N(≤100)。随后一行按格式a1/b1 a2/b2 ...给出N个有理数。题目保证所有分子和分母都在长整型范围内。另外,负数的符号一定出现在分子前面。 输出格式: 输出上述数字和的最简形式 —— 即将结果写成 整数部分 分数部分 ,其中分数部分写成 分子/分母 ,要求分子小于分母,且它们没有公因子。如果结果的整数部分为0,则只输出分数部分。 样例: 输入样例1: 5 2 / 5 4 / 15 1 / 30 - 2 / 60 8 / 3 输出样例1: 3 1 / 3 输入样例2: 2 4 / 3 2 / 3 输出样例2: 2 输入样例3: 3 1 / 3 - 1 / 6 1 / 8 输出样例3: 7 / 24 思路 从题目“分子/分母”的输入形式可以看出我们不能采用scanf和cin直接输输入值 而要采用字符输入再转换为数值 计算过程中判断好符号 暴力通分直接加减即可

PAT甲级第二次真题练习

萝らか妹 提交于 2020-10-29 01:28:53
1005 Spell It Right (20)(20 分) 提问 Given a non-negative integer N, your task is to compute the sum of all the digits of N, and output every digit of the sum in English. Input Specification: Each input file contains one test case. Each case occupies one line which contains an N (<= 10^100^). Output Specification: For each test case, output in one line the digits of the sum in English words. There must be one space between two consecutive words, but no extra space at the end of a line. Sample Input: 12345 Sample Output: one five 作者: CHEN, Yue 单位: PAT联盟 时间限制: 400ms 内存限制: 64MB 代码长度限制: 16KB #include

融合自训练和自监督方法,让文本丝般顺滑!|EMNLP 2020

一个人想着一个人 提交于 2020-10-17 16:58:57
     原创作者:王少磊   文本顺滑(Disfluency Detection)的目的是删除自动语音识别(ASR)结果中的不顺滑的词,从而得到更自然和通顺的句子。   目前大部分在文本顺滑(Disfluency Detection)任务上的工作都严重依赖人工标注数据。   本文介绍一篇被EMNLP 2020录取的工作,在本工作中,作者首次尝试用无监督的方法来解决文本顺滑问题。   作者通过结合自训练(self-training)和自监督(self-supervised)两种方法,在不采用任何有标注训练数据的情况下,取得了跟目前最好的有监督方法接近的效果。   论文名称:   《Combining Self-Training and Self-Supervised Learningfor Unsupervised Disfluency Detection》      论文作者:王少磊,王重元,车万翔,刘挺   论文链接:http://ir.hit.edu.cn/~slwang/emnlp2020.pdf   以下是论文一作王少磊对本文的亲自解读。   1   任务简介及动机   自动语音识别(ASR)得到的文本中,往往含有大量的不流畅现象。这些不流畅现象会对后面的自然语言理解系统(如句法分析,机器翻译等)造成严重的干扰,因为这些系统往往是在比较流畅的文本上训练的。  

持续更新 EMNLP2020 Summarization

99封情书 提交于 2020-10-10 12:53:15
Long Multi-Fact Correction in Abstractive Text Summarization . Yue Dong, Shuohang Wang, Zhe Gan, Yu Cheng, Jackie Chi Kit Cheung and Jingjing Liu. Unsupervised Reference-Free Summary Quality Evaluation via Contrastive Learning. Hanlu Wu, Tengfei Ma, Lingfei Wu, Tariro Manyumwa and Shouling Ji. Multi-document Summarization with Maximal Marginal Relevance-guided Reinforcement Learning. Yuning Mao, Yanru Qu, Yiqing Xie, Xiang Ren and Jiawei Han. MLSUM: The Multilingual Summarization Corpus. Thomas Scialom, Paul-Alexis Dray, Sylvain Lamprier, Benjamin Piwowarski and Jacopo Staiano. Stepwise