deep

Solr Deep Paging(solr 深分页)

社会主义新天地 提交于 2020-12-12 20:37:58
转载请出自出处: http://eksliang.iteye.com/blog/2148370 作者:eksliang(ickes) blg: http://eksliang.iteye.com/ 概述 长期以来,我们一直有一个深分页问题。如果直接跳到很靠后的页数,查询速度会比较慢。这是因为Solr的需要为查询从开始遍历所有数据。直到Solr的4.7这个问题一直没有一个很好的解决方案。直到solr4.7引入了游标才解决这个问题。 问题 深分页的问题是很清楚。Solr必须为返回的搜索结果准备一个列表,并返回它的一部分。如果该部分来源于该列表的前面并不难。但如果我们想返回第10000页(每页20条记录)的数据,Solr需要准备一个包含大小为200000(10000 * 20)的列表。这样,它不仅需要时间,还需要内存。像我们现在生产上的历史数据达到了6个亿的数据,如果直接跳转到最后一页,必定内存溢出。 solr4.7是怎么解决这个问题的? 答:Solr 4.7的发布改变了这一状况,引入了游标的概念。游标是一个动态结构,不需要存储在服务器上。游标包含了查询的结果的偏移量,因此,Solr的不再需要每次从头开始遍历结果直到我们想要的记录,游标的功能可以大幅提升深翻页的性能。 用法 游标的使用非常简单。在第一个查询中,我们需要传递一个额外的参数- cursorMark = *

Machine Learning and having it deep and structured

爱⌒轻易说出口 提交于 2020-04-08 12:11:51
What's Machine Learning? You can ask computer to do lots of things for you However, computer can only do what you ask it to do Computer can never solve the problem you can't solve Some tasks are very complex One day, you are asked to write a program for speech recognition Let the machine lear by itself Learning ≈ Looking for a Function Speech Recognition Handwritten Recognition Weather forecast Play video games Framework This Course Deep Learning What is Deep Learning? Deep v.s. Shallow Speech Recognition Shallow Approach Deep Learning -Image Recognition Shallow Approach Deep Learning Deep

Deep Belief Network 学习笔记-RBM

孤人 提交于 2020-04-04 22:36:05
Deep Belief Network 学习笔记-RBM By Placebo   (纯属个人笔记)   第一次知道deep learning,是上学期dengli博士来实验室的一次报告,他讲到,当神经网络的层数大于2时(即一个hidden层,一个输出层,不算输入层,之后皆采用这种表述法),经典的训练方法效果会很差,如果层数继续增多,则完全没法训练。当时对神经网络知之甚少,直到最近较认真的学了下机器学习,才明白。   什么是deep learning?我们知道(虽然不知道如何证明)2层神经网络的建模能力是非常强大的,但是要求隐节点个数足够多,多到难以接受。如果采用更深层的网络,比如3层网络,即两个hidden层,每层100个节点,则可以和hidden层有10000个节点的2层网络建模能力差不多,类似,4层网络,三个hidden层,每层100个节点,可以和hidden层有1000000个节点的2层网络建模能力差不多。这就是加深网络深度带来的好处。但是网络深了,针对3层网络的训练方法再用起来就会失败,因为参数的局部极小值太多了,很容易陷入到一个很烂的极值。   Hinton于XXXX年提出了一种方法,把RBM(Restricted Boltzmann Machines)堆叠在一起,训练出权值,把这个权值当成神经网络权值的初始值,再用经典的梯度法去训练网络,最后得到的结果会很好

AutoCAD中的Deep Clone

帅比萌擦擦* 提交于 2020-04-04 15:41:10
AutoCAD中的Deep Clone 所谓Deep clone是指将实体从一个dwg文件拷贝至另一个dwg文件,类似于Ctr+C,CtrV,而普通的实体的Copy()方法,是在单个dwg文件中输入命令'copy', 在Pycomcad中,实现deep colone是通过Document的CopyObjects方法实现的,语法如下: Retval=obj.CopyObjects(objects[,Owner][,IDPairs]) Retval :新创建的复制的对象组,在pycomcad中,返回的是包含复制后的对象的元组。 obj :Document,Database objects :需要被deep clone的对象组(变体),该对象组必须在同一个owner1中,这个owner1就是调用CopyObjects的obj(Document或者Database),在pyccomcad中,可通过VtObject()函数转换。 Owner :可选参数,单个对象(变体),其他文件的ModeSpace。 IDPairs :可选参数。Input:an empty variant,在pycomcad中,为win32com.client.test2=acad.acad.ActiveDocument.CopyObjects(objs,owner,idp). Output:IDPair objects组

watch 中 deep与immediate 区别以及作用

拜拜、爱过 提交于 2020-04-01 11:25:15
deep,默认值是 false,代表是否深度监听。 immediate:true代表如果在 wacth 里声明了之后,就会立即先去执行里面的handler方法,如果为 false就跟我们以前的效果一样,不会在绑定的时候就执行。 immediate:true代表如果在 wacth 里声明了之后,就会立即先去执行里面的handler方法,如果为 false就跟我们以前的效果一样,不会在绑定的时候就执行。 来源: https://www.cnblogs.com/eAndyLau/p/12610982.html

codeforces 1304E 1-Trees and Queries LCA

﹥>﹥吖頭↗ 提交于 2020-03-17 03:29:10
https://vjudge.net/problem/CodeForces-1304E 题目大意:给一棵树, q q q 个询问 ( x , y , a , b , k ) (x,y,a,b,k) ( x , y , a , b , k ) ,表示在给 x 、 y x、y x 、 y 加一条边的情况下,问是否存在一条从 a a a 到 b b b 的经过了 k k k 条边的路径,该路径可以多次经过同一个点、同一条边,但是起点必须是 a a a ,终点必须是 b b b (有疑问的可看下样例)。 思路:找到一条从 a a a 到 b b b 的路径,设其经过了 l e n len l e n 条边,只要 l e n < = k len<=k l e n < = k 且 l e n len l e n 和 k k k 的奇偶性相同,就是有解的,因为一条边可以经过多次,所以只要 ( l e n − k ) % 2 = 0 (len-k)\%2=0 ( l e n − k ) % 2 = 0 ,缺少的边数就可以通过在一条边上循环往复来补足。因为 x 、 y x、y x 、 y 加了一条边,所以路径有三种选择: a − b a-b a − b 、 a − x − y − b a-x-y-b a − x − y − b 、 a − y − x − b a-y-x-b a − y − x −

Deep Learning(深度学习)

∥☆過路亽.° 提交于 2020-03-13 00:26:01
本人常用资源整理(ing...) Deep Learning(深度学习): ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):一 ufldl的2个教程(这个没得说,入门绝对的好教程,Ng的,逻辑清晰有练习):二 Bengio团队的deep learning教程,用的theano库,主要是rbm系列,搞python的可以参考,很不错。 deeplearning.net主页,里面包含的信息量非常多,有software, reading list, research lab, dataset, demo等,强烈推荐,自己去发现好资料。 Deep learning的toolbox,matlab实现的,对应源码来学习一些常见的DL模型很有帮助,这个库我主要是用来学习算法实现过程的。 2013年龙星计划深度学习教程,邓力大牛主讲,虽然老师准备得不充分,不过还是很有收获的。 Hinton大牛在coursera上开的神经网络课程,DL部分有不少,非常赞,没有废话,课件每句话都包含了很多信息,有一定DL基础后去听收获更大。 Larochelle关于DL的课件,逻辑清晰,覆盖面广,包含了rbm系列,autoencoder系列,sparse coding系列,还有crf,cnn,rnn等 。 虽然网页是法文,但是课件是英文。 CMU大学2013年的deep

深浅拷贝和 clone(deep)

点点圈 提交于 2020-03-10 17:45:54
深拷贝 只是拷贝了元素的引用,一个改变另外的也会改变 clone() 如果不加deep 的话是浅拷贝,只是拷贝本元素,如果(deep)的话,还会拷贝后代的元素 来源: CSDN 作者: 蚁族的奋斗1 链接: https://blog.csdn.net/github_39319000/article/details/104757310

【5分钟 Paper】Continuous Control With Deep Reinforcement Learning

柔情痞子 提交于 2020-03-03 02:22:50
论文题目 :Continuous Control With Deep Reinforcement Learning 所解决的问题?   这篇文章将 Deep Q-Learning 运用到 Deterministic Policy Gradient 算法中。如果了解 DPG 的话,那这篇文章就是引入 DQN 改进了一下 DPG 的 state value function 。解决了 DQN 需要寻找 maximizes action-value 只能运用于离散动作空间 的局限。 背景   其实就是这两篇文章的组合: 【5分钟 Paper】Playing Atari with Deep Reinforcement Learning 【5分钟 Paper】Deterministic Policy Gradient Algorithms 所采用的方法?   这个 DDPG 我太熟悉,我实在不想再写啥了,附录一个伪代码吧: 取得的效果?   实验结果如下图所示: 所出版信息?作者信息?   这篇文章是 ICLR2016 上面的一篇文章。第一作者 TimothyP.Lillicrap 是 Google DeepMind 的 research Scientist 。   Research focuses on machine learning and statistics for optimal

Deep Learning Books you should read in 2020

南笙酒味 提交于 2020-02-29 12:03:06
https://towardsdatascience.com/deep-learning-books-you-should-read-in-2020-7806048c1dc5 With the rise of machine learning and data science, applied everywhere and changing every industry, it’s no wonder that experts in machine learning are handsomely paid and much looked after. If you’ve already read a couple of data science and machine learning books , it’s time to focus on deep learning: Neural Networks, Keras, Tensorflow, Scikit-learn, et Deep Learning books to read in 2020 Introductory level If you’re just getting into Machine Learning there’s the one book I can’t stop recommending. It’s