yarn

大数据(hadoop)

人盡茶涼 提交于 2019-12-24 23:48:45
大数据基础平台 大数据:通俗就是收集、分析、处理大量的数据,然后从中获得结果的技术总称 大数据应用领域 广告、金融、能源生物、安全、电商等等 大数据的技术 批处理框架 历史性数据,有源有结束点 离线型数据 能处理全部的历史性数据 Apache MapReduce 流处理框架 处理实时性数据 源源不断的处理数据 Apache samza Apache storm 混合处理框架 既有批处理也有流处理 Apache flink Apache spark 项目定义 可靠的,可扩展的开源软件 是一个大数据处理框架,允许使用简单的编程模型跨计算机集群分布式处理大型数据集。 可以从单个服务器扩展到数千台计算机 集群中的媚态计算机都提供本地计算和存储 集群不是依靠硬件来提供高可用性,而是设计了用于检测和处理应用程序层的故障,从而在计算机集群上提供高可用性服务。 hadoop的核心项目 hadoop分布式文件系统(HDFS):一种分布式文件系统,可提供对应用程序数据的高吞吐量访问。 hadoop YARN:作业调度和集群资源管理的框架。 hadoop MapReduce: 基于YARN的系统,用于并行处理大型数据集。 相关项目 Apache的其他Hadoop相关项目: Hadoop Common:支持其他Hadoop模块的常用实用程序 Ambari: 基于web的工具,用于配置

YARN job appears to have access to less resources than Ambari YARN manager reports

≯℡__Kan透↙ 提交于 2019-12-24 21:03:41
问题 Getting confused when trying to run a YARN process and getting errors. Looking in ambari UI YARN section, seeing... (note it says 60GB available). Yet, when trying to run an YARN process, getting errors indicating that there are less resources available than is being reported in ambari, see... ➜ h2o-3.26.0.2-hdp3.1 hadoop jar h2odriver.jar -nodes 4 -mapperXmx 5g -output /home/ml1/hdfsOutputDir Determining driver host interface for mapper->driver callback... [Possible callback IP address: 192

Flink架构、原理与部署测试

人盡茶涼 提交于 2019-12-24 19:11:40
Apache Flink是一个面向分布式数据流处理和批量数据处理的开源计算平台,它能够基于同一个Flink运行时,提供支持流处理和批处理两种类型应用的功能。 现有的开源计算方案,会把流处理和批处理作为两种不同的应用类型,因为它们所提供的SLA(Service-Level-Aggreement)是完全不相同的:流处理一般需要支持低延迟、Exactly-once保证,而批处理需要支持高吞吐、高效处理。 Flink从另一个视角看待流处理和批处理,将二者统一起来:Flink是完全支持流处理,也就是说作为流处理看待时输入数据流是无界的; 批处理被作为一种特殊的流处理,只是它的输入数据流被定义为有界的 。 Flink流处理特性: 支持高吞吐、低延迟、高性能的流处理 支持带有事件时间的窗口(Window)操作 支持有状态计算的Exactly-once语义 支持高度灵活的窗口(Window)操作,支持基于time、count、session,以及data-driven的窗口操作 支持具有Backpressure功能的持续流模型 支持基于轻量级分布式快照(Snapshot)实现的容错 一个运行时同时支持Batch on Streaming处理和Streaming处理 Flink在JVM内部实现了自己的内存管理 支持迭代计算 支持程序自动优化:避免特定情况下Shuffle、排序等昂贵操作

Flink架构、原理与部署测试

亡梦爱人 提交于 2019-12-24 18:03:17
Apache Flink是一个面向分布式数据流处理和批量数据处理的开源计算平台,它能够基于同一个Flink运行时,提供支持流处理和批处理两种类型应用的功能。 现有的开源计算方案,会把流处理和批处理作为两种不同的应用类型,因为它们所提供的SLA(Service-Level-Aggreement)是完全不相同的:流处理一般需要支持低延迟、Exactly-once保证,而批处理需要支持高吞吐、高效处理。 Flink从另一个视角看待流处理和批处理,将二者统一起来:Flink是完全支持流处理,也就是说作为流处理看待时输入数据流是无界的; 批处理被作为一种特殊的流处理,只是它的输入数据流被定义为有界的 。 Flink流处理特性: 支持高吞吐、低延迟、高性能的流处理 支持带有事件时间的窗口(Window)操作 支持有状态计算的Exactly-once语义 支持高度灵活的窗口(Window)操作,支持基于time、count、session,以及data-driven的窗口操作 支持具有Backpressure功能的持续流模型 支持基于轻量级分布式快照(Snapshot)实现的容错 一个运行时同时支持Batch on Streaming处理和Streaming处理 Flink在JVM内部实现了自己的内存管理 支持迭代计算 支持程序自动优化:避免特定情况下Shuffle、排序等昂贵操作

spark-submit unable to connect

人盡茶涼 提交于 2019-12-24 17:48:50
问题 After running the command spark-submit --class org.apache.spark.examples.SparkPi --proxy-user yarn --master yarn --deploy-mode cluster --driver-memory 4g --executor-memory 2g --executor-cores 1 --queue default ./examples/jars/spark-examples_2.11-2.3.0.jar 10000 I get this in the output and it keeps on retrying. Where am I going wrong? Am I missing some configuration? I have created a new user for yarn and running that user. WARN Utils:66 - Your hostname, ukaleem-HP-EliteBook-850-G3 resolves

How to get Yarn Application Id for hive jdbc connection?

点点圈 提交于 2019-12-24 17:29:39
问题 Here is how i am running queries through hive jdbc Class.forName(DRIVER); Connection = DriverManager.getConnection(CONNECTION_URL, USERNAME, PASSWORD); Response = Connection.createStatement(); ResultSet = Response.executeQuery(query); I can see the application details in yarn ui. But now i want to get the application id for this job through java code, Is it possible to do so? If yes, then how? 回答1: AFAIK the short answer is: not in older versions of Hive; possibly with recent versions, which

impersonate oozie job - permission issue

ⅰ亾dé卋堺 提交于 2019-12-24 15:58:21
问题 I am trying to execute bash script, which contains multiple hive commands using ozzie and i get security exception (Permission denied: user=yarn, access=WRITE, inode="/user":hdfs:hdfs:drwxr-xr-x) Extra info: The Submit command was done using hdfs user. I have tried using impersonates option (-doas hdfs) Disabling the security check solve the problem but causing different problem (FAILED: Execution Error, return code 2 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask), using: <property> <name

(一)Spark简介-Java&Python版Spark

旧街凉风 提交于 2019-12-24 15:33:21
Spark简介 视频教程: 1、 优酷 2、 YouTube 简介:   Spark是加州大学伯克利分校AMP实验室,开发的通用内存并行计算框架。Spark在2013年6月进入Apache成为孵化项目,8个月后成为Apache顶级项目Spark以其先进的设计理念,迅速成为社区的热门项目,围绕着Spark推出了Spark SQL、Spark Streaming、MLLib和GraphX等组件,也就是BDAS(伯克利数据分析栈),这些组件逐渐形成大数据处理一站式解决平台。   Spark使用Scala语言实现,它是一种面向对象、函数式编程语言,能够像操作本地集合对象一样轻松的操作分布式数据集。 Spark特点: 1、运行速度快   Spark拥有DAG执行引擎,支持在内存中对数据进行迭代计算。官方提供的数据表明,如果数据由磁盘读取,速度是Hadoop MapReduce的10倍以上,如果数据从内存中读取,速度可以高达100多倍。 2、易用性好   Spark不仅支持Scala编写应用程序,而且支持Java和Python等语言进行编写,特别是Scala是一种高效、可拓展的语言,能够用简洁的代码处理较为复杂的处理工作。 3、通用性强   Spark生态圈即BDAS(伯克利数据分析栈)包含了Spark Core、Spark SQL、SparkStreaming、MLLib和GraphX等组件

0514-Hive On Spark无法创建Spark Client问题分析

空扰寡人 提交于 2019-12-24 12:13:51
1 问题现象 测试环境 1.RedHat7.2 2.CM和CDH版本为5.15.0 在集群中进行Hive-On-Spark查询失败,并在HiveServer2日志中显示如下错误: ERROR : Failed to execute spark task , with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)' org . apache . hadoop . hive . ql . metadata . HiveException : Failed to create spark client . at org . apache . hadoop . hive . ql . exec . spark . session . SparkSessionImpl . open ( SparkSessionImpl . java : 64 ) at org . apache . hadoop . hive . ql . exec . spark . session . SparkSessionManagerImpl . getSession ( SparkSessionManagerImpl . java : 114 ) ... . Caused by

apache-spark 1.3.0 and yarn integration and spring-boot as a container

陌路散爱 提交于 2019-12-24 11:34:08
问题 I was running spark application as a query service (much like spark-shell but within servlet container of spring-boot) with spark 1.0.2 and standalone mode. Now After upgrading to spark 1.3.1 and trying to use Yarn instead of standalone cluster things going south for me. I created uber jar with all dependencies (spark-core, spark-yarn, spring-boot) and tried to deploy my application. 15/07/29 11:19:26 INFO client.RMProxy: Connecting to ResourceManager at /0.0.0.0:8032 15/07/29 11:19:27 INFO