Ting

停车场管理

寵の児 提交于 2021-02-15 13:59:42
【实验目的】 (1) 深入了解栈和队列的特性,掌握栈和队列的存储方法。 (2) 掌握栈和队列的基本操作,如初始化、入栈(队列)、出栈(队列)等,并能在实际问题背景下灵活运用。 【问题描述】 设停车场是一个可以停放n辆汽车的狭长通道,且只有一个大门可供汽车进出。汽车在停车场内按车辆到达时间的先后顺序,依次由北向南排列(大门在最南端,最先到达的第一辆车停放在车场的最北端),若车场内已经停满n辆汽车,则后来的汽车只能在门外的便道上等候,一旦有车开走,则排在便道上的第一辆车即可开入;当停车场内某辆车要离开时,在它之后进入的车辆必须先退出场为它让路,待该辆车开出大门外,其他车辆再按次序进入车场,每辆停放在车场的车在它离开停车场时必须按它停留的时间长短交纳费用,试为停车场编制按上述要求进行管理的模拟程序。 #define sz 10 #include<iostream.h> #include<stdio.h> #include<stdlib.h> typedef struct {//让车道 顺序栈 int a[2]; int top; }rang; void initr(rang &r){//初始化 r.top=0; } void rpush(rang &r,int e){//进栈 r.a[r.top]=e;r.top++; } void rpop(rang &r,int &e){//出栈 e

kafka之consumer参数auto.offset.reset 0.10+

独自空忆成欢 提交于 2021-01-24 02:52:13
https://blog.csdn.net/dingding_ting/article/details/84862776 https://blog.csdn.net/xianpanjia4616/article/details/84347087 kafka-0.10.1.X版本之前: auto.offset.reset 的值为smallest,和,largest.(offest保存在zk中) kafka-0.10.1.X版本之后: auto.offset.reset 的值更改为:earliest,latest,和none (offest保存在kafka的一个特殊的topic名为:__consumer_offsets里面) auto.offset.reset: 可理解为kafka consumer读取数据的策略,本地用的kafka版本为0.10,因此该参数可填earliest|latest|none。 earliest: 当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,从头开始消费 latest: 当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据 none: topic各分区都存在已提交的offset时,从offset后开始消费;只要有一个分区不存在已提交的offset

Jun-Yan Zhu(朱俊彦)

纵饮孤独 提交于 2021-01-14 03:07:23
Postdoctoral researcher Computer Science and Artificial Intelligence Laboratory Department of EECS Massachusetts Institute of Technology Email: junyanz at mit dot edu CV | Google Scholar | GitHub | Thesis | Teaching | Software | Papers | Talks | Awards | Arxiv I am a postdoctoral researcher at MIT, working with William T. Freeman, Josh Tenenbaum, and Antonio Torralba. I obtained my Ph.D. from UC Berkeley after spending five wonderful years at CMU and UC Berkeley with Alexei A. Efros. I received my B.E from Tsinghua University. I study computer vision, computer graphics, and machine learning

python的for循环及数组

心已入冬 提交于 2021-01-08 18:50:26
for 目标 in 表达式:   循环体 例子1:    a = ' songcuiting ' for i in a:   print(i,end = ' , ' ) 例子2: member = [ ' song ' , ' cui ' , ' ting ' ] for each in member:   print(each,len(member)) range语法: range([start,] end[,step=1]) []括起来的表示非必填参数,start参数表示开始数(不填的时候0开始),step参数表示结束数-1。step表示每隔几个数。默认是1 例子: list(range(10)) [0, 1, 2, 3, 4, 5, 6, 7, 8, 9] list(range(0,5)) [0, 1, 2, 3, 4] list(range(2,9)) [2, 3, 4, 5, 6, 7, 8] list(range(1,10,2)) [1, 3, 5, 7, 9] for i in range( 10 ): if i% 2 != 0 : print( 1 ,i) continue i += 2 print( 2 ,i) 请回答上面的for循环的输出结果 for i in range( 10 ): i += 2 print(i) 疑问:好像i并不会被i += 2赋值掉。

AI识别彻底懵逼,这到底是“牛”还是“鲨”?

牧云@^-^@ 提交于 2020-12-17 15:24:58
来源:AI科技评论 作者:耳洞打三金 本文 约6200字 ,建议阅读 15 分钟 是牛or鲨鱼? 看到封面和标题,PA的一下我就点进来了,很快啊...... 大家好我是三金,求大家快来帮帮我 ! 我和编辑部的同事因为上图到底是牛还是鲨吵了起来 ,我说这张图更像 ,同事说更像 ,我们差点儿就GAN了一架! 现求大家来评评理这到底是牛还是鲨 ...... 案发当天是这样的: 一个下午,风和日丽,诚诚恳恳、兢兢业业的我,在完成当天的文章之后,趁老板不注意于是开始偷偷上班摸 ,那摸的叫一个开心啊,真是大呼直爽。 我就刷推特,一直刷一直刷,我一不小心就把推特刷到了11月29日(注意哈案发当天是12月10日),突然我刷到一张图片: 我看到这张图就不禁大笑了起来: 旁边同事问我怎么发生肾么事了,我当时看的投入就敷衍了一句说没啥,刚刚想起了开心的事情。 我接着往下看,发现有一位身在法国的奥地利AI研究科学家,一位老同志,名叫Christian Wolf,他闲来无事,把上面的这张不只是牛还是鲨的图片喂给了在pytorch上经过ImageNet数据集预训练的ResNet-101模型,结果AI识别Top 5结果显示如下: 虎鲨:23%、双髻鲨(又称锤头鲨):21% 、大白鲨:16%、长嘴硬鳞鱼(又称雀鳝):11%、鲟:3%...... Christian Wolf说自己得到了一个结论: 外形>[纹理

CTR点击率预估论文集锦

不羁的心 提交于 2020-12-17 06:47:53
前言 CTR预估对于搜索、推荐和广告都是非常重要的一个场景,近年来CTR预估技术更新迭代,层出不穷。这篇文章将记录CTR预估著名模型的相关论文。以下按照年份整理。 1.2020年 ( DFN ). Ruobing Xie. Deep Feedback Network for Recommendation ,2020,IJCAI(CCF-A). 出自腾讯微信团队. ( DMR ). Zequn Lyu. Deep Match to Rank Model for Personalized Click-Through Rate Prediction , AAAI (CCF-A), 出自阿里团队。 ( DTS ). Shu-Ting Shi. Deep Time-Stream Framework for Click-through Rate Prediction by Tracking Interest Evolution , AAAI (CCF-A), 出自南京大学和阿里合作。 ( UBR4CTR ). Jiarui Qin. User Behavior Retrieval for Click-Through Rate Prediction , SIGIR (CCF-A), 出自上海交通大学。 ( InterHAt ). Zeyu Li. Interpretable Click

Hinton新作!越大的自监督模型,半监督学习需要的标签越少

青春壹個敷衍的年華 提交于 2020-11-01 14:24:19
来源:AI科技评论 编译:青暮 本文介绍了Hinton团队发表在NeurIPS 2020上的一项研究工作,一作是Ting Chen,研究人员首次在ImageNet上尝试了半监督学习的典型范式,并取得了优越的结果。此外,他们还发现,网络的规模越大,需要的标签数据越少。 论文地址:https://arxiv.org/abs/2006.10029 仅使用1%的标签(每类≤13个标签图像),本文提出的方法即可达到73.9%ImageNet top-1准确率,与以前的SOTA相比,标签效率提高了10倍。 使用10%的标签,本文的方法可以达到77.5%的top-1准确率,优于使用100%标签的标准监督训练。 “无监督预训练、监督微调”范式 充分利用少量标记示例和大量未标记示例进行学习是机器学习的一个长期存在的问题。 人们曾经提出一种半监督学习来试图解决这个问题,其中涉及无监督或自监督的预训练,然后进行有监督的微调。 这种方法在预训练期间以与任务无关的方式利用未标记的数据,仅在有监督微调时使用带标签的数据。 这种方法在计算机视觉上很少受关注,但是在自然语言处理中已成为主流。例如,人们首先在未标记的文本(例如Wikipedia)上训练大型语言模型,然后在一些带标记的示例中对该模型进行微调。 基于视觉表示的自监督学习的最新进展,Ting Chen等人对ImageNet上的半监督学习进行了深入研究

融合自训练和自监督方法,让文本丝般顺滑!|EMNLP 2020

一个人想着一个人 提交于 2020-10-17 16:58:57
     原创作者:王少磊   文本顺滑(Disfluency Detection)的目的是删除自动语音识别(ASR)结果中的不顺滑的词,从而得到更自然和通顺的句子。   目前大部分在文本顺滑(Disfluency Detection)任务上的工作都严重依赖人工标注数据。   本文介绍一篇被EMNLP 2020录取的工作,在本工作中,作者首次尝试用无监督的方法来解决文本顺滑问题。   作者通过结合自训练(self-training)和自监督(self-supervised)两种方法,在不采用任何有标注训练数据的情况下,取得了跟目前最好的有监督方法接近的效果。   论文名称:   《Combining Self-Training and Self-Supervised Learningfor Unsupervised Disfluency Detection》      论文作者:王少磊,王重元,车万翔,刘挺   论文链接:http://ir.hit.edu.cn/~slwang/emnlp2020.pdf   以下是论文一作王少磊对本文的亲自解读。   1   任务简介及动机   自动语音识别(ASR)得到的文本中,往往含有大量的不流畅现象。这些不流畅现象会对后面的自然语言理解系统(如句法分析,机器翻译等)造成严重的干扰,因为这些系统往往是在比较流畅的文本上训练的。  

MongoDB升级4.0后,这个异常坑了多少人?

孤者浪人 提交于 2020-08-17 18:44:44
​作者介绍 李鹏冲, 网易游戏高级运维工程师,MongoDB和MySQL数据库爱好者,目前专注于SAAS平台的开发与运维工作。 问题 近期线上一个三分片集群从 3.2 版本升级到 4.0 版本以后,集群节点的 CPU 的负载升高了很多(10% -> 40%), 除了版本的升级,项目逻辑和操作量均无变化。 关闭 Balancer 以后 CPU 负载回归正常,稳定在 10% 以下。 为此,只能经常关闭当前正在写入表的 balancer , 每周二打开 balancer 开启均衡,在此期间节点的 CPU 负载持续稳定在 40% 。 集群有 3 个分片,除了 MongoDB 版本的变化,项目本身的逻辑无任何变化。 那么升级以后 CPU 负载较大变化的背后是什么原因呢? 一、监控与日志 首先可以明确,升级以后 CPU 负载升高和 balancer 迁移数据有关。 观察升级以后 4.0 版本,周二打开 balancer 期间的负载情况和 mongostat 结果: 可以发现,CPU 负载升高和 delete 数据的情况很吻合。而迁移数据数据之后源节点需要删除迁移走的数据,所以肯定有大量的 delete 。迁移数据之后的删除也会有如下的日志: 53094:2019-10-08T10:09:24.035199+08:00 I SHARDING [Collection Range Deleter]