yarn

Docker镜像+nginx 部署 vue 项目

妖精的绣舞 提交于 2020-04-06 00:23:48
一、打包vue项目   在开发完的vue项目输入如下命名,打包生成dist文件夹 yarn build / npm run build   此时根目录会多出一个文件夹:dist文件夹,里面就是我们要发布的东西。   如果将该dist目录整个传到服务器上,部署成静态资源站点就能直接访问到该项目。 二、获取nginx 镜像    nginx 是一个高性能的HTTP和反向代理服务器,此处我们选用 nginx 镜像作为基础来构建我们的vue应用镜像。   在终端输入: docker pull nginx   即可以获取到nginx镜像。   Docker镜像是一个特殊的文件系统,除了提供容器运行时所需的程序、库、资源、配置等文件外,还包含了一些为运行时准备的一些配置参数(如匿名卷、环境变量、用户等)。 镜像不包含任何动态数据,其内容在构建之后也不会被改变。   在终端输入如下命令,可以看到nginx的镜像 docker image ls   镜像结果如下所示: 三、创建 nginx config配置文件   在项目根目录下创建 nginx 文件夹,该文件夹下新建文件 default.conf server { listen 80 ; server_name localhost; #charset koi8 - r; access_log /var/log/nginx/ host

SharePoint Online 开发:创建一个基于节点的Project

五迷三道 提交于 2020-04-03 18:38:05
Blog链接: https://blog.51cto.com/13969817 本文将为大家介绍如何创建一个简单的基于node的project并了解一些基于node的project如何工作的基本概念。 前提条件: https://cmder.net/,安装Cmder , 是Windows下非常好用的终端模拟器, 常用于替换windows自带的终端。它可以在不同的标签页中同时连接不同的底层Shell,包括cmd、PowerShell、Bash和WSL,并提供相关增强功能和更加便捷的操作方式. https://code.visualstudio.com/docs/?dv=win,安装VisualStudio Code,它是一款轻量级 但功能强大的源代码编辑器,它可以在你的桌面上运行,适用于Windows、macOS和Linux。它内置了对JavaScript、TypeScript和Node.js的支持,并为其他语言(如c++、c#、Java、Python、PHP、Go)和运行时(如。net和Unity)提供了丰富的扩展生态系统。 现在,我们先使用mkdir为新Project创建一个名为newproj的文件夹,然后进入这个文件夹并将其设置为一个基于node的project。 然后输入npm init, 会问一些相关问题,这里我们直接采用默认答案即可,最后我们选择Yes,

【Hadoop】YARN 完全分布式配置

谁说胖子不能爱 提交于 2020-04-03 12:37:10
承接 https://www.cnblogs.com/jzsg/p/12622214.html mv mapred-site.xml.template mapred-site.xml // 基于YARN的资源调度配置 vi etc/hadoop/mapred-site.xml: <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> vi etc/hadoop/yarn-site.xml: <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>172.16.152.130:8031</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>172.16.152.130:8033<

cd examples/converters/kitti $ yarn

冷暖自知 提交于 2020-04-01 03:52:20
error /home/jiahuiw/uber avs/xviz-master/examples/converters/kitti/node_modules/node-expat: Command failed. Exit code: 1 Command: node-gyp rebuild Arguments: Directory: /home/jiahuiw/uber avs/xviz-master/examples/converters/kitti/node_modules/node-expat Output: gyp info it worked if it ends with ok gyp info using node-gyp@3.8.0 gyp info using node@10.16.0 | linux | x64 gyp http GET https://nodejs.org/download/release/v10.16.0/node-v10.16.0-headers.tar.gz gyp http 200 https://nodejs.org/download/release/v10.16.0/node-v10.16.0-headers.tar.gz gyp http GET https://nodejs.org/download/release/v10

yarn 状态机

江枫思渺然 提交于 2020-03-27 18:12:50
3 月,跳不动了?>>> 每个有状态且存在复杂状态转换的对象都包含一个状态机 例如org.apache.hadoop.mapreduce.v2.app.job.impl.JobImpl 代表一个mr job,其内部就包含一个状态机: public class JobImpl implements org.apache.hadoop.mapreduce.v2.app.job.Job, EventHandler<JobEvent> { protected static final StateMachineFactory<JobImpl, JobStateInternal, JobEventType, JobEvent> stateMachineFactory = new StateMachineFactory<JobImpl, JobStateInternal, JobEventType, JobEvent>(JobStateInternal.NEW) .addTransition(JobStateInternal.NEW, JobStateInternal.FAIL_ABORT, JobEventType.JOB_INIT_FAILED, new InitFailedTransition()) //JobImpl 在NEW状态 下接收到 JOB_INIT_FAILED类型的事件后

如何在Nuxt项目中给pm2配置生产环境和测试环境

不想你离开。 提交于 2020-03-27 11:33:45
3 月,跳不动了?>>> 在 Nuxt.js 项目中,我们有一个全局的环境变量 process.env.NODE_ENV,默认情况下,这个变量的值要么是 production,要么是 development,分别表示生产环境和开发环境。而如果我们使用 pm2 来部署我们的项目,我们需要的环境可能不止这两种,我们还需要测试环境、预生产环境等等。这时候,就需要做一些配置工作才能正常使用,本篇文章就记录一下如何在 Nuxt 项目中给 pm2 配置生产环境和测试环境。 如果要使用 pm2 来部署我们的项目,首先需要在项目根目录中创建一个名为 ecosystem.config.js 的生态系统配置文件,这个文件导出一个对象,这个对象包含两部分:apps 和 deploy。其中 apps 是一个数组,包含我们需要部署的项目信息,一般这个数组只有一个对象,我们在一个生态系统配置文件里只部署一个项目。而 deploy 是一个对象,包含一些项目部署到服务器所需的配置。 module.exports = { apps: [{}, {}], deploy: {} } 假设我们要部署的项目名称为 mydemo,项目总共有三个环境,生产环境 production,测试环境 test,开发环境 development,其中要使用 pm2 部署 production 和 test 两个环境

Hadoop1重新格式化HDFS

荒凉一梦 提交于 2020-03-27 06:42:26
首先我们来认识一下HDFS, HDFS(Hadoop Distributed File System )Hadoop分布式文件系统。它其实是将一个大文件分成若干块保存在不同服务器的多个节点中。通过联网让用户感觉像是在本地一样查看文件,为了降低文件丢失造成的错误,它会为每个小文件复制多个副本(默认为三个),以此来实现多机器上的多用户分享文件和存储空间。 Hadoop主要包含三个模块: HDFS模块:HDFS负责大数据的存储,通过将大文件分块后进行分布式存储方式,突破了服务器硬盘大小的限制,解决了单台机器无法存储大文件的问题,HDFS是个相对独立的模块,可以为YARN提供服务,也可以为HBase等其他模块提供服务。 YARN模块:YARN是一个通用的资源协同和任务调度框架,是为了解决Hadoop中MapReduce里NameNode负载太大和其他问题而创建的一个框架。YARN是个通用框架,不止可以运行MapReduce,还可以运行Spark、Storm等其他计算框架。 MapReduce模块:MapReduce是一个计算框架,它给出了一种数据处理的方式,即通过Map阶段、Reduce阶段来分布式地流式处理数据。它只适用于大数据的离线处理,对实时性要求很高的应用不适用。多相关信息可以参考博客: 初识HDFS(10分钟了解HDFS、NameNode和DataNode) 。

yarn 创建 react项目报错

半世苍凉 提交于 2020-03-26 16:37:30
3 月,跳不动了?>>> 新安装 yarn v1.22.4 在执行以下命令, yarn create react-app my-app 显示报错如下 info There appears to be trouble with your network connection. Retrying... error An unexpected error occurred: "https://registry.npm.taobao.org/react: tunneling socket could not be established, cause=connect ECONNREFUSED 127.0.0.1:3128". 解决方法: yarn config delete https-proxy yarn config delete proxy 来源: oschina 链接: https://my.oschina.net/liyoungs/blog/3211928

flink(13)-flink on yarn源代码分析

天涯浪子 提交于 2020-03-26 10:35:47
3 月,跳不动了?>>> session cluster和per job 因为是源码分析,所以会分为服务端和客户端两个部分的代码分析,下面我先看服务端<br/> session cluster模式是类似standalone,先去向yarn申请好资源,然后供业务方提交,主要的入口类是YarnSessionClusterEntrypoint(这里指的是服务端的入口)<br/> <br/> 从上图可以看出来,startCluster()方法前后是两个分界线,startCluster之前是获取配置,之后是进行集群相关的创建,包括haService/blobServer/heartBeatService/resourceManger/webMonitorEndpoint。<br/> 这里有一点是需要说明的是有关executionGraphStore, 这里实际有两种,1.将可执行图放在内存中,2.将可执行图持久化到文件。<br/> yarn session:将executionGraph持久化到文件<br/> per job:将executionGraph持久化到文件<br/> 对于per job模式是每个任务对应一个集群,其实就是将上图中的YarnSessionClusterEntrypoint改成YarnJobClusterEntrypoint,其它流程基本一致

error when running sqoop2 server on Amazon EMR with yarn

梦想的初衷 提交于 2020-03-26 08:11:23
问题 I'm trying to install sqoop 2 (version 1.99.3) on an Amazon EMR cluster (AMI version 3.2.0 / Hadoop version 2.4.0). When I start the sqoop server, I see this error in localhost.log: Sep 10, 2014 4:55:56 PM org.apache.catalina.core.StandardContext listenerStart SEVERE: Exception sending context initialized event to listener instance of class org.apache.sqoop.server.ServerInitializer java.lang.RuntimeException: Failure in server initialization at org.apache.sqoop.core.SqoopServer.initialize