yarn

03 Vue Cli4.0安装与使用

梦想的初衷 提交于 2020-03-05 12:05:35
1 Vue Cli 4.0安装 vue clie属于插件,发布在npm中的插件,都可以通过npm的方式安装;安装新软件,会自动覆盖以前的旧软件. #npm 安装 npm install -g @vue/cli #yarn安装 yarn global add @vue/cli #查看版本 vue --version 查看vue安装在哪些地方 which -a vue 2 Vue Cli 4.0使用 使用 vue创建项目 vue create mall 然后会提示你,预安装 默认安装bable和eslint.bable用来编译es6 的语法,eslint用来做项目的检查 回车之后,按照给出的提示,就可以跑起来项目 cd mall yarn serve #如果没有安装yarn,也可以用下面的命令 npm run serve 启动vue的ui系统 vue ui 启动之后,里面是没有项目的,需要导入. 也可以不进行前面的操作,先使用ui,来创建项目. 来源: CSDN 作者: MyQGirl_moon 链接: https://blog.csdn.net/MyQGirl666/article/details/104665519

hadoop高可用安装与配置

感情迁移 提交于 2020-03-05 11:23:06
集群的规划 host | 基本的软件 | 运行的进程 data1 | jdk、zk、hadoop | NameNode、zkfc、zk、journalNode、ResourceManager data2 | jdk、zk、hadoop | NameNode、zkfc、zk、journalNode、ResourceManager、datanode、NodeManager data3 | jdk、zk、hadoop | zk、journalNode、datanode、NodeManager 一.SSH免密登录 1.data1: ssh-keygen -t rsa , 然后一直按回车 ssh-copy-id data1 ssh-copy-id data2 ssh-copy-id data3 2.在data2和data3上重复执行1的操作 二.安装jdk 省略 三.安装zookeeper 省略 四.安装hadoop 1.下载到/data/tools: wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.10.0/hadoop-2.10.0.tar.gz 2. 添加环境变量:sudo vi /etc/profile export HADOOP_HOME=/data/tools/hadoop-2.10.0 export

hadoop之yarn

╄→гoц情女王★ 提交于 2020-03-04 23:02:31
在Hadoop1.x中MapReduce是Master/Slave结构,在集群中的表现形式为:1个JobTracker带多个TaskTracker; JobTracker:负责资源管理和作业调度; TaskTracker:定期向JobTracker汇报本节点的健康状况、资源使用情况以及任务的执行情况;接收来自JobTracker的命令(启动/杀死任务等)并执行接收到的命令; MR V1存在的问题!!!!!!!!!!!!!!!!!!!!!!!!!!!!! 单点故障:JobTracker只有一个,JobTracker挂了整个集群就没办法使用了; JobTracker负责接收来自各个TaskTracker节点的RPC请求,压力会很大,限制了集群的扩展;随着节点规模增大之后,JobTracker就成为一个瓶颈; 仅支持MapReduce计算框架;无法支持多种计算平台 --- MapReduce计算框架是一个基于Map和Reduce两阶段、适合批处理的、基于磁盘的计算框架; --- MapReduce计算框架优点:容错性好; --- MapReduce计算框架缺点:性能差; MR V2与MR V1的区别?!!!!!!!!!!!!!!!!!!!!!!!!!!! MR V2是MR V1的升级版本,与MR V1不同的时运行的环境不一样。MR V2是运行于YARN之上的MapReduce计算框架。

macOS安装npm项目

有些话、适合烂在心里 提交于 2020-03-04 18:17:53
如果你在Linux和Windows里面用过npm,你会说:“哇塞,方便!” 可是,如果在macOS呢,可能会骂人。。。。 如何在macOS里面安装npm模块呢,我喜欢yarn。 首先, $ sudo npm install --global yarn 你先把你的密码输入进去。 用过Mac的同学一定知道,那mac是在Unix的基础上制作的。所以,和Linux一样,密码不会回显。 macOS的安装体验比Windows好多了,至少我的Hackintosh是这样的。 然后是淘宝镜像(你心情好的可以) $ yarn config set registry http://registry.npm.taobao.org/ 这里,我们 不推荐 使用cnpm,因为,cnpm的安装和yarn 完全不一样 ,使用cnpm 打包 很耗时间,且成功率很低很低。 然后,我们就可以优雅地安装模块了。 这个很漂亮的,还有图标!!! 来源: CSDN 作者: 7086cmd 链接: https://blog.csdn.net/weixin_44856864/article/details/104655101

大数据教程(8.2)wordcount程序原理及代码实现/运行

早过忘川 提交于 2020-03-04 11:05:49
上一篇博客分享了mapreduce的编程思想,本节博主将带小伙伴们了解wordcount程序的原理和代码实现/运行细节。通过本节可以对mapreduce程序有一个大概的认识,其实hadoop中的map、reduce程序只是其中的两个组件,其余的组件(如input/output)也是可以重写的,默认情况下是使用默认组件。 一、wordcount统计程序实现: WordcountMapper (map task业务实现) package com.empire.hadoop.mr.wcdemo; import java.io.IOException; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Mapper; /** * KEYIN: 默认情况下,是mr框架所读到的一行文本的起始偏移量,Long, * 但是在hadoop中有自己的更精简的序列化接口,所以不直接用Long,而用LongWritable * VALUEIN:默认情况下,是mr框架所读到的一行文本的内容,String,同上,用Text * KEYOUT

vue+elementUI导出数据为word文档

怎甘沉沦 提交于 2020-03-03 01:30:29
今天做项目遇到需求是在word文档里面增加数据,在已知文案里面加上用户签名和时间。我也按搜索到的做的。我做的时候主要参考了简书写的,具体链接 :https://www.jianshu.com/p/0de31429b12a 以下是我写的代码模块,步骤完全按简书写,如下: 1.先下载相应的包 // 安装 docxtemplater yarn add docxtemplater pizzip --save // 安装 jszip-utils yarn add jszip-utils --save // 安装 jszip yarn add jszip --save //安装 FileSaver yarn add file-saver --save 安装不一定要yarn,可以是npm 也可以是cnpm 2.引入相应包 import Docxtemplater from 'docxtemplater' import PizZip from 'pizzip' import JSZipUtils from 'jszip-utils' import { saveAs } from 'file-saver' 3.写相应代码: export default { data() { return { lookDetail: {name:'李四',order_date:'2020-02-26'} } },

(2)YARN的工作流程

白昼怎懂夜的黑 提交于 2020-03-03 00:01:31
Writing YARN Applications 文档中的启动过程: Application submission client向 Yarn ResourceManager提交一个 Application,RM、NM、AM处理流程 。   首先,创建一个YarnClient对象并start它,然后Client可以设置ApplicationContext。为app 准备第一个 container 来 contain ApplicationMaster ,然后提交Application。 RM在已经指定的Container中启动ApplicationMaster。AM与YARN集群通信,处理Application的执行。在app启动的过程中(app的启动过程中,AM与RM的通信是异步的),AM的主要工作包括: (1)与RM通信,协商为之后的Containers分配资源(通过AMRMClientAsync对象,AMRMClientAsync.CallbackHandler指定事件的处理方法); (2)Container分配之后,与NodeManagers通信,启动它们所在节点的app的Containers(启动一个Runnable对象,当为Containers分配资源之后,启动containers。作为启动Container的一部分,AM需要指定带有启动信息的

Hadoop伪分布式环境配置与启动

三世轮回 提交于 2020-03-02 07:28:04
1. 环境准备 在一台linux机器上,安装好hadoop运行环境,安装方式请查看: HADOOP运行环境搭建 2. 启动HDFS并运行MapReduce程序 2.1. 配置集群 1. 配置:hadoop-env.sh Linux系统中获取JDK的安装路径: [root@ hadoop101 ~]# echo $JAVA_HOME /opt/module/jdk1.8.0_144 编辑hadoop-env.sh,修改hadoop-env.sh中的JAVA_HOME 路径: export JAVA_HOME=/opt/module/jdk1.8.0_144 2. 配置:core-site.xml 首先文件的存取目录不能停留在本地,要用HDFS上的文件,就需要配置HDFS的NameNode的地址。 所以需要在core-site.xml中增加以下配置 <!-- 指定HDFS中NameNode的地址 --> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop101:9000</value> </property> <!-- 指定Hadoop运行时产生文件的存储目录 --> <property> <name>hadoop.tmp.dir</name> <value>/opt/module/hadoop-2.7.2/data