stage

Stages a staged file in git?

断了今生、忘了曾经 提交于 2019-12-05 13:12:50
I'm using git to manage my project. And I'm confused with the workflow of git when staging a file. If I staged files and forgot commit and then I modify that files and stages again and commit, how can I roll back to first staged ? VonC As described in " Git Internals - Git Objects ", each time you change the content of a file, and add it to the cache, you do a: git hash-object -w test.txt That stores it to the object stored. I just did two git add consecutively for one file, followed by a: C:\Users\VonC\prog\go\src\github.com\VonC\asciidocgo\.git>gfind -mmin -10 -print . ./index ./objects/4f .

Hive SQL编译过程(转)

佐手、 提交于 2019-12-05 08:35:21
转自:https://www.cnblogs.com/zhzhang/p/5691997.html Hive是基于Hadoop的一个数据仓库系统,在各大公司都有广泛的应用。美团数据仓库也是基于Hive搭建,每天执行近万次的Hive ETL计算流程,负责每天数百GB的数据存储和分析。Hive的稳定性和性能对我们的数据分析非常关键。 在 几次升级Hive的过程中,我们遇到了一些大大小小的问题。通过向社区的咨询和自己的努力,在解决这些问题的同时我们对Hive将SQL编译为 MapReduce的过程有了比较深入的理解。对这一过程的理解不仅帮助我们解决了一些Hive的bug,也有利于我们优化Hive SQL,提升我们对Hive的掌控力,同时有能力去定制一些需要的功能。 1、MapReduce实现基本SQL操作的原理 详细讲解SQL编译为MapReduce之前,我们先来看看MapReduce框架实现SQL基本操作的原理 1.1 Join的实现原理 select u.name, o.orderid from order o join user u on o.uid = u.uid; 在map的输出value中为不同表的数据打上tag标记,在reduce阶段根据tag判断数据来源。MapReduce的过程如下(这里只是说明最基本的Join的实现,还有其他的实现方式) 1.2 Group

Spark理论总结

限于喜欢 提交于 2019-12-05 06:13:57
一,Spark专业术语 1,Application 指的是用户编写的Spark应用程序、代码,包含了Driver功能代码和分布在集群中多个节点运行的Executor代码。 Spark应用程序,由一个或者多个job组成(因为代码中可能会调用多次Action)每个job就是一个RDD执行一个Action. 2,Driver Program Spark中的Driver即运行在Application的main函数并创建的SparkContext,其中创建SparkContext的目的是为了准备Spark应用的运行环境。 在Spark中由SparkContext负责和ClusterManager通信,进行资源的申请,任务的分配和监控等。 SparkContext向RM或者Master申请资源,运行Executor进程(线程池),当Executor部分运行完成后,Driver负责向SparkContext关闭。 3,Cluster Manager 指的是在集群上获取资源的外部服务,常用的有 Standalone,Spark原生的资源管理器,由Master负责资源的分配。 Hadoop Yarn,由yarn中的ResourceManager负责资源的分配。 4,Worker计算节点 集群中的节点,可以分配资源并运行Executor进程。

DEVOPS技术实践_22:根据参数传入条件控制执行不同stage

╄→гoц情女王★ 提交于 2019-12-05 05:04:29
前面学习了参数的传递和调用,下面研究一下根据参数作为条件执行不同的stage 使用叫when 和expression控制某一个stage的运行, 运行场景例如写了多个stage,这个pipeline脚本执行执行冒烟测试,和集成测试。有时候,希望快速执行冒烟测试,想根据结果看看,不一定一上来就执行集成测试。为了达到这种控制效果,我们就需要使用逻辑控制。在pipeline中就使用when 和expression两个命令。例如,如果json文件中冒烟测试变量为true,我就只执行冒烟测试的stage,其他和冒烟测试无关的stage我就不去执行。如果冒烟测试变量值为false,也就是默认要跑集成测试(不跑冒烟测试)。下面分两个类型测试就好 1 修改json文件 { "NAME":"Lucy", "AGE":"18", "PHONE_NUMBER":"13912345678", "ADDRESS":"Haidian Beijing", "EMAIL":"lucy@demo.com", "GENDER":"male", "SMOKE":"false", "IS_MARRY":"false" } test.json文件基础上加了一个变量 SMOKE, 默认值是false。 2 使用的jenkinsfile文件 import hudson.model.*; pipeline{ agent any

Event when window/stage lost focus

≯℡__Kan透↙ 提交于 2019-12-05 02:25:36
How can I run a piece of code (or more exactly: close the stage) when the JavaFX stage lost it's focus? For example in Dropbox or Chrome: if you click the tray icon, a small window opens. If you click anywhere on the screen now, the window closes. Exactly this is the behaviour I want to create in my JavaFX application. I searched a long time already for a solution, but couldn't find one... So, I'm looking for something something like this: stage.addEventHandler(EventType.FOCUS_LOST, new EventHandler() { /*...*/ } ); Thank you for helping me out! OttPrime Add a listener to stage.focusedProperty

How to change the coordinate origin in Flash's stage with Actionscript?

杀马特。学长 韩版系。学妹 提交于 2019-12-04 20:42:26
I think I did this before but can't find the code. Flash as many other graphical frameworks use the top-left corner as the coordinate origin (0,0) because it's how the underlying memory model is by convention. But it would be really simpler for my calculations if the origin was in the center of the stage, because all the game revolves around the center and uses a lot of trigonometry, angles, etc. Is there some built-in method like Stage::setOrigin( uint, uint ); or something like that? Create a MovieClip or Sprite and add that to the stage as your root object (instead of adding to the Stage)

Hive基础练习二

三世轮回 提交于 2019-12-04 18:41:50
下面是hive基本练习,持续补充中。 Hive导出数据有几种方式,如何导出数据 1.insert # 分为导出到本地或者hdfs,还可以格式化输出,指定分隔符 # 导出到本地 0: jdbc:hive2://node01:10000> insert overwrite local directory '/kkb/install/hivedatas/stu3' select * from stu; INFO : Compiling command(queryId=hadoop_20191116221919_74a3d6f7-5995-4a1e-b072-e30d6269d394): insert overwrite local directory '/kkb/install/hivedatas/stu3' select * from stu INFO : Semantic Analysis Completed INFO : Returning Hive schema: Schema(fieldSchemas:[FieldSchema(name:stu.id, type:int, comment:null), FieldSchema(name:stu.name, type:string, comment:null)], properties:null) INFO : Completed

Hive SQL 编译过程详解

﹥>﹥吖頭↗ 提交于 2019-12-04 17:22:46
Hive是基于Hadoop的一个数据仓库系统,在各大公司都有广泛的应用。美团数据仓库也是基于Hive搭建,每天执行近万次的Hive ETL计算流程,负责每天数百GB的数据存储和分析。Hive的稳定性和性能对我们的数据分析非常关键。 在几次升级Hive的过程中,我们遇到了一些大大小小的问题。通过向社区的咨询和自己的努力,在解决这些问题的同时我们对Hive将SQL编译为MapReduce的过程有了比较深入的理解。对这一过程的理解不仅帮助我们解决了一些Hive的bug,也有利于我们优化Hive SQL,提升我们对Hive的掌控力,同时有能力去定制一些需要的功能。 1、MapReduce实现基本SQL操作的原理 详细讲解SQL编译为MapReduce之前,我们先来看看MapReduce框架实现SQL基本操作的原理 1.1 Join的实现原理 select u.name, o.orderid from order o join user u on o.uid = u.uid; 在map的输出value中为不同表的数据打上tag标记,在reduce阶段根据tag判断数据来源。MapReduce的过程如下(这里只是说明最基本的Join的实现,还有其他的实现方式) 1.2 Group By的实现原理 select rank, isonline, count(*) from city group

Dynamic stageWidth and Height in Flash AS3

不打扰是莪最后的温柔 提交于 2019-12-04 13:01:31
This seems like it would be a really easy thing to do, but its been giving me all kinds of headaches. I have a movieclip that is a gallery, It's linked to be called from AS when a button is clicked. When an image in the gallery is clicked, It fades in using the Tween class and is supposed to be centered in the main stage, but its centering to the movieClip instead. Here is the code: //Centers and places image right ondo the display board function fullLoaded(e:Event):void { var myFull:Loader = Loader(e.target.loader); addChild(myFull); //positioning myFull.x = (stage.stageWidth - myFull.width)

【论文笔记】RefineDet: Single-Shot Refinement Neural Network for Object Detection

生来就可爱ヽ(ⅴ<●) 提交于 2019-12-04 11:49:26
& 论文概述 论文地址: https://arxiv.org/abs/1711.06897 代码地址: https://github.com/sfzhang15/RefineDet & 总结与个人观点 本文提出基于single-shot refinement neural network的检测器,由ARM与ODM组成。ARM用于过滤负anchor以减少分类器的搜索空间,同时对粗略地调整anchor的位置以及大小为后续的回归器提供更好的初始化;ODM将从前面的ARM得到的精修的anchor作为输入来回归精确的目标位置以及大小,同时预测多响应的多类别标签。整个网络使用多任务损失进行端到端的训练。RefineDet在PASCAL VOC 2007, PASCAL VOC 2012以及MS COCO数据集上均取得了最优的检测精度同时高效。之后计划使用RefineDet来检测其他特定的目标,如行人,车辆以及面部,同时引入注意力机制获得更好的效果。 通过对整体结构的观察,本文提出的RefineDet与FPN的结构相似,与FPN的主要区别在于,FPN在bottom-top方向的特征图中没有进入分类以及回归的子网,而RefineDet则通过这种方式得到了Refined anchor,此外则是TCB模块的使用与FPN中的特征融合过程有些差别。 & 贡献 1、 提出使用ARM以及ODM的one