deep

P1343 地震逃生(最大流板题)

半城伤御伤魂 提交于 2020-02-28 23:36:54
P1343 地震逃生 题目描述 汶川地震发生时,四川**中学正在上课,一看地震发生,老师们立刻带领x名学生逃跑,整个学校可以抽象地看成一个有向图,图中有n个点,m条边。1号点为教室,n号点为安全地带,每条边都只能容纳一定量的学生,超过楼就要倒塌,由于人数太多,校长决定让同学们分成几批逃生,只有第一批学生全部逃生完毕后,第二批学生才能从1号点出发逃生,现在请你帮校长算算,每批最多能运出多少个学生,x名学生分几批才能运完。 输入格式 第一行3个整数n,m,x(x<2^31,n<=200,m<=2000);以下m行,每行三个整数a,b,c(a1,a<>b,0描述一条边,分别代表从a点到b点有一条边,且可容纳c名学生。 输出格式 两个整数,分别表示每批最多能运出多少个学生,x名学生分几批才能运完。如果无法到达目的地(n号点)则输出“Orz Ni Jinan Saint Cow!” 输入输出样例 输入 # 1 复制 6 7 7 1 2 1 1 4 2 2 3 1 4 5 1 4 3 1 3 6 2 5 6 1 输出 # 1 复制 3 3 说明/提示 【注释】 比如有图 1 2 100 2 3 1 100个学生先冲到2号点,然后1个1个慢慢沿2-3边走过去 18神牛规定这样是不可以的…… 也就是说,每批学生必须同时从起点出发,并且同时到达终点 思路 Edmods_kraps / Dinic /

[USACO15DEC]最大流Max Flow

孤人 提交于 2020-02-07 15:35:22
题目描述 Farmer John has installed a new system of N−1N-1 N − 1 pipes to transport milk between the NN N stalls in his barn ( 2≤N≤50,0002 \leq N \leq 50,000 2 ≤ N ≤ 5 0 , 0 0 0 ), conveniently numbered 1…N1 \ldots N 1 … N . Each pipe connects a pair of stalls, and all stalls are connected to each-other via paths of pipes. FJ is pumping milk between KK K pairs of stalls ( 1≤K≤100,0001 \leq K \leq 100,000 1 ≤ K ≤ 1 0 0 , 0 0 0 ). For the ii i th such pair, you are told two stalls sis_i s i ​ and tit_i t i ​ , endpoints of a path along which milk is being pumped at a unit rate. FJ is concerned that

PP: Think globally, act locally: A deep neural network approach to high-dimensional time series forecasting

纵饮孤独 提交于 2020-02-07 01:47:36
Problem: high-dimensional time series forecasting ?? what is "high-dimensional" time series forecasting? one dimension for each individual time-series. n个time series为n维。 A need for exploiting global pattern and coupling them with local calibration校准 for better prediction. However, most are one-dimensional forecasting. one-dimensional forecasting VS high-dimensional forecasting: 1. a single dimension forecast mainly depends on past values from the same dimension. DeepGLO: a deep forecasting model which thinks globally and acts locally . A hybrid model: a global matrix factorization model

深度学习:Demystifying Deep Reinforcement Learning,揭开深度强化学习的神秘面纱

这一生的挚爱 提交于 2020-02-06 16:09:59
https://www.intel.ai/demystifying-deep-reinforcement-learning/#gs.w3pn15 Two years ago, a small company in London called DeepMind uploaded their pioneering paper “ Playing Atari with Deep Reinforcement Learning ” to Arxiv. In this paper they demonstrated how a computer learned to play Atari 2600 video games by observing just the screen pixels and receiving a reward when the game score increased. The result was remarkable, because the games and the goals in every game were very different and designed to be challenging for humans. The same model architecture, without any change, was used to

CHAPTER 6 Deep Learning for NLP

不羁的心 提交于 2020-02-06 09:38:37
In this chapter, we will implement deep learning for NLP: Recipe 1. Information retrieval using deep learning Recipe 2. Text classification using CNN, RNN, LSTM Recipe 3. Predicting the next word/sequence of words using LSTM for Emails Introduction to Deep Learning Deep learning is a subfield of machine learning that is inspired by the function of the brain. Just like how neurons are interconnected in the brain, neural networks also work the same. Each neuron takes input, does some kind of manipulation within the neuron, and produces an output that is closer to the expected output (in the case

推荐算法—ctr预估

妖精的绣舞 提交于 2020-01-27 07:54:16
文章目录 总览 传统CTR模型演化的关系图 深度学习CTR模型的演化图谱 算法比对与总结 LR——CTR模型的核心和基础 FM模型——因子分解和特征交叉 LR+GBDT——特征工程模型化的开端 FTRL——在线实时训练模型 LS-PLM(MLR)——阿里曾经的主流CTR模型 Deep Neural Network (DNN) ——多层感知机器模拟特征组合 Deep Crossing(2016年)——DNN中deep加了resnet FNN(2016年)——用FM的隐向量完成Embedding初始化 PNN (2016年)——丰富特征交叉的方式 Google Wide&Deep(2016年)——记忆能力和泛化能力的综合权衡 华为 DeepFM (2017年)——用FM代替Wide部分 Google Deep&Cross(2017年)——使用Cross网络代替Wide部分 NFM(2017年)——对Deep部分的改进 AFM(2017年)——引入Attention机制的FM 阿里DIN(2018年)——阿里加入Attention机制的深度学习网络 阿里DIEN(2018年)——DIN的“进化” 参考 总览 传统CTR模型演化的关系图 向下为了解决特征交叉的问题,演化出PLOY2,FM,FFM等模型; 向右为了使用模型化、自动化的手段解决之前特征工程的难题

倍增法——解决LCA求树上两点最近公共祖先问题

柔情痞子 提交于 2020-01-26 17:21:09
在我们学过RMQ之后,我们知道了倍增法的原理,利用一个二的幂次来维护了每个以2为底数的区间长度。其实简单的说,就是一个合并问题,一个2可以有两个1组成,而一个4可以由两个2组成,以此类推。所以叫做倍增。倍增法通常能用以解决线性问题,譬如区间的最大值,当我们固定左端点的时候,当右端点不断向右移动的时候,不难发现,该区间的最大值也是单调不减的。 好了,一通乱讲之后该回归主题了。 现在,我们提出这样一个问题,我们是不是可以用倍增的方式来求得树上两个点的公共祖先呢? 譬如说,如图,有X和Y两个结点,我们想知道他俩的最近公共祖先呢? 给每个结点打上序号标记,方便之后的讲解: 于是乎,我们想知道X和Y的最近公共祖先,我们可以每次让X上升一格,让Y也上升一格,看看他俩的祖先是不是相同的。 【第一步】X会走到2,Y会走到3号结点,发现他两不相同,继续走; 【第二步】X走到1,Y走到1,他俩相同,退出,找到了最近公共祖先。 很容易发现一点,这样的做法是O(N)的。但是能保证其正确性(当X和Y的深度不相同的时候,肯定是要先将深度深的结点移动到深度浅的结点的深度上去) 其中,我们可以做出优化。因为我们可以知道,当向上走的步数越多,那么肯定就越会相同,我们类似就可以使用 倍增的方法 来进行维护了。 譬如说是这样的一棵树。 当我们先把X升高到和Y同深度的点,也就是X会转到点4上去(现在X在4号点的位置了)

# [洛谷3376] 网络最大流模板题

不羁的心 提交于 2020-01-17 22:25:58
[洛谷3376] 网络最大流模板题 洛谷3376 题意 网络最大流模板题,题意很直白。 给出源点,汇点,点个数,边条数,以及每条边的流量,求源点到汇点的最大流量。 思路 Dinic算法简介 最大流经典算法Dinic算法,理论复杂度 \(O(n^2m)\) ,但是实际运用中远远达不到这个上界,可以说是比较容易实现的效率最高的网络流算法之一,一般能处理 \(10^4 -10^5\) 规模的网络,特别的地,Dinic算法求解二分图最大匹配的理论时间复杂度为 \(O(m\sqrt{n})\) ,实际表现则更快。 实现步骤 在残量网络(剩余流量大于0的子图)上BFS求出节点的层次,构造分层图 在分层图上DFS寻找增广路,在回溯时实时更新剩余流量,每个点可以流向多条边。 优化技巧 当前弧优化 一个点可能有多条出边,在DFS寻找增广路的时候,如果遍历该点的出边时,发现有些边已经没有剩余流量时,记录下当前遍历的点,下次再碰到该点时,无需从头开始遍历,直接从记录的位置开始遍历(因为记录位置之前的出边都没有剩余流量了,没有遍历的必要,代码实现:边使用链式前向星存储,使用额外数组cur[]复制head[]的值,实现cur代替head进行遍历,并及时更新cur的值,也就是修改头结点的指向)。 多路增广优化 爆点优化 当DFS遍历时发现一个点没有了流出的流量,则把该点的deep值置为-2,将无用的点抛弃

2020.1.13 note

给你一囗甜甜゛ 提交于 2020-01-16 03:54:25
2020.1.13 note AdderNet: Do We Really Need Multiplications in Deep Learning? Compared with cheap addition operation, multiplication operation is of much higher computation complexity. The widely-used convolutions in deep neural networks are exactly cross-correlation to measure the similarity between input feature and convolution filters, which involves massive multiplications between float values. In this paper, they present adder networks (AdderNets) to trade these massive multiplications in deep neural networks, especially convolutional neural networks (CNNs), for much cheaper additions to

Polly 弹性策略指南

空扰寡人 提交于 2020-01-15 09:35:58
Polly 提供了多种弹性策略: Policy Premise Aka How does the policy mitigate? Retry 重试 (policy family) deep 有相当比例的错误是暂时性的,可以在很短的时间内自我恢复。 "Maybe it's just a blip" 也许只是抖动一下 允许配置自动化重试。 Circuit-breaker 熔断 (policy family) deep 当系统很严重吃力的时候快速失败比让用户或调用者等待更好。保证系统从过载的状态中恢复。 "Stop doing it if it hurts" 痛了就放手 "Give that system a break" 做个了断吧 可以预定义阈值来触发熔断。 Timeout 超时 deep 即使等待也不太可能返回一个成功的结果 "Don't wait forever" 不要一直等下去 确保调用者在超时之后就不用继续等待了。 Bulkhead Isolation 隔离舱 deep 当处理失败时,多个失败的救援会淹没主机上的其他资源(如 threads/CPU)。一个失败下游的系统应该能够"backed-up" 失败的上游。这两种失败的处理都会影响更多系统。 "One fault shouldn't sink the whole ship" 一个船舱漏水不应该沉掉整艘船