lib文件

Unable to load native-hadoop library for your pla

杀马特。学长 韩版系。学妹 提交于 2019-11-30 06:34:15
导致这个错的原因: 1.hadoop/lib/native/本地库不存在。 2. hadoop/lib/native/本地库 与当前操作系统的版本位数不一致。 确定错误的原因: 1.查看hadoop/lib/native是否存在。 2.设置hadoop的日记级别位debug,在环境变量中添加:export HADOOP_ROOT_LOGGER=DEBUG,console,重启hadoop后,仔细观察日志,看看到底是native lib没找到还是版本不一致。 解决方法:找到合适的native lib 1.如果是apache的hadoop,则直接重新编译hadoop,编译方法网上很多。 2.如果是cloudera的hadoop,则找到tar.gz版本的rpm包(系统、版本都需对应,http://archive.cloudera.com/cdh4/,找到你的的操作系统,centos和rhel归一类,我找的是http://archive.cloudera.com/cdh4/redhat/6/x86_64/cdh/4.7.0/RPMS/x86_64/hadoop-2.0.0+1604-1.cdh4.7.0.p0.17.el6.x86_64.rpm文件),然后用压缩软件打开rpm,提取里面的lib/native文件,放到hadoop的lib/native下。 rm libhadoop.so

HBase伪分布部署

耗尽温柔 提交于 2019-11-30 06:29:30
1、基础配置 #配置主机名 hostnamectl set-hostname {master, node1, node2} #配置hosts cat <<EOF >> /etc/hosts 192.168.2.124 master 192.168.2.125 node1 192.168.2.126 node2 EOF #安装JDK yum install -y java-1.8.0-openjdk-devel.x86_64 #配置java路径 cat <<EOF | sudo tee /etc/profile.d/hbase-env.sh export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.222.b10-1.el7_7.x86_64 export CLASSPATH=.:\$JAVA_HOME/lib/dt.jar:\$JAVA_HOME/lib/tools.jar export PATH=$PATH:\$JAVA_HOME/bin EOF source /etc/profile.d/hbase-env.sh #新建用户 adduser hadoop echo "123456" | passwd --stdin hadoop usermod -aG wheel hadoop su - hadoop #SSH基于KEY的验证

springboot项目打包与部署

最后都变了- 提交于 2019-11-30 05:42:23
1、springboot项目lib包、config配置文件打包配置。 maven其实是由各种插件组成的,执行mvn 命令时,都是调用的对应的maven插件来原型的,如mvn compile、mvn install等调用的是maven-compiler-plugin、maven-install-plugin插件。打包使用的插件是在pom文件中配置的,其中pom中 plugins 下的 plugin 是真实使用的,而 pluginManagement 下的 plugins 下的 plugin 则仅仅是一种声明。pom引入插件后可以在本地仓库中看到对应的插件。 打包的时候,我们希望把项目依赖的jar包打包到lib目录,把配置文件单独打包到config目录(不要打入项目所在jar包,方便后期部署运维时修改配置文件),项目单独一个jar包和lib目录、config目录在同一级目录下。pom配置文件如下: <build> <pluginManagement><!-- lock down plugins versions to avoid using Maven defaults (may be moved to parent pom) --> <plugins> <plugin> <artifactId>maven-clean-plugin</artifactId> <version>3.0

Openfire+Spark源码开发环境搭建

纵饮孤独 提交于 2019-11-30 05:35:10
首先第一步,当然是环境搭建了... Openfire官网: http://www.igniterealtime.org/index.jsp 源码下载地址: http://www.igniterealtime.org/downloads/index.jsp Openfire SVN下载地址:http://svn.igniterealtime.org/svn/repos/openfire/trunk 1、下载源码 2、创建JavaProject: openfire(我采用比较笨的方法,新建个空项目,然后将源码copy进去...) 3、右键项目——>Properties,设置项目属性 a) Java Build Path -> Source: openfire/src/conf, openfire/src/i18n, openfire/src/java, (以上output folder均相同) openfire/src/test/java, openfire/src/test/resources(以上2个output folder可设为 openfire/test-classes) Java Build Path -> Libraries: openfire/build/lib/* , openfire/build/lib/dist/*, openfire/build/lib

Flume-Exec Source 监控单个本地文件

谁说胖子不能爱 提交于 2019-11-30 04:38:15
实时监控,并上传到 HDFS 中。 一、Flume 要想将数据输出到 HDFS,须持有 Hadoop 相关 jar 包 若 Hadoop 环境和 Flume 在同一节点,那么只要配置 Hadoop 环境变量即可,不需要复制相关 jar 包。 # 将相关包拷贝到 flume 的 lib 目录下 # commons-configuration-1.6.jar # hadoop-auth-x.x.x.jar、 # hadoop-common-x.x.x.jar、 # hadoop-hdfs-x.x.x.jar、 # commons-io-x.x.jar、 # htrace-core-x.x.x-incubating.jar cp /opt/hadoop-2.9.2/share/hadoop/hdfs/hadoop-hdfs-2.9.2.jar /opt/apache-flume-1.9.0-bin/lib/ cp /opt/hadoop-2.9.2/share/hadoop/common/hadoop-common-2.9.2.jar /opt/apache-flume-1.9.0-bin/lib/ cp /opt/hadoop-2.9.2/share/hadoop/common/lib/commons-io-2.4.jar /opt/apache-flume-1.9.0-bin/lib

编译Hadoop Eclipse插件

断了今生、忘了曾经 提交于 2019-11-30 04:21:04
环境:CentOS6.6 JDK1.7.0_72 Ant1.9.4 Hadoop1.2.1 源码 Eclipse4.4.1 1.进入HADOOP_SRC_HOME/src/contrib/eclipse-plugin下面,修改build.xml,加入以下内容:eclipse的根目录、hadoop的版本号、ivy版本号、hadoop的一些引用包、在javac里加入 includeantruntime="on" 2.进入HADOOP_SRC_HOME/src/contrib下面,修改build-contrib.xml,修改javac.deprecation的值为on 3.进入HADOOP_SRC_HOME/src/contrib/eclipse-plugin/META-INF下面,修改MANIFEST.MF文件,修改Bundle-ClassPath的值 4.使用shell命令进入HADOOP_SRC_HOME/src/contrib/eclipse-plugin下面,执行ant命令进行构建 修改后的 HADOOP_SRC_HOME/src/contrib/eclipse-plugin/build.xml 的完整内容如下: <?xml version="1.0" encoding="UTF-8" standalone="no"?> <!-- Licensed to the Apache

【hadoop】zookeeper的安装测试

廉价感情. 提交于 2019-11-30 03:41:06
下载:apache-zookeeper-3.5.5.tar.gz 进入zookeeper安装目录查看lib文件夹和zookeeper-3.5.5.jar是否存在,如果没有需要手动添加,不然启动时会报错。 注:启动失败时,可以进入out.log日志进行查看错误原因 [hadoop@hadoop01 apache-zookeeper-3.5.5]$ ls -l total 176 drwxr-xr-x. 2 hadoop hadoop 232 Apr 9 19:13 bin -rw-r--r--. 1 hadoop hadoop 94388 May 3 19:40 build.xml drwxr-xr-x. 2 hadoop hadoop 120 Sep 20 00:45 conf -rw-r--r--. 1 hadoop hadoop 411 Feb 15 2019 excludeFindBugsFilter.xml -rw-r--r--. 1 hadoop hadoop 1709 Feb 15 2019 ivysettings.xml -rw-r--r--. 1 hadoop hadoop 7597 Apr 9 19:13 ivy.xml drwxr-xr-x. 2 root root 4096 Sep 20 00:02 lib -rw-r--r--. 1 hadoop

正则表达式sed

 ̄綄美尐妖づ 提交于 2019-11-30 03:34:59
* sed可以实现一些grep的功能,但是稍微麻烦了一些,sed的强项在于删除文件中的内容和替换 sed实现grep检索功能: 1.根据关键字检索: [root@localhost ~]# sed -n '/root/'p passwd.txt * 使用sed检索时需要在关键字前加-n参数,关键字后加p,关键词还需要用 // 包括起来 2.关键字有特殊符号时加上 -r 参数或使用脱义符 [root@localhost ~]# sed -nr '/o+t/'p passwd.txt 3.打印指定行:(打印指定行时直接写行号即可,不需要加//符号括起来) [root@localhost ~]# sed -n '5'p passwd.txt [root@localhost ~]# sed -n '5,$'p passwd.txt #打印第五行至最后一行 4.-e 参数:使用多个表达式: [root@localhost ~]# sed -e '1'p -e '/root/'p -n passwd.txt * 打印第一行内容并检索包含root的行,如果第一行同时包含root,那么第一行会被打印两次 5.不区分大小写:(加上大写的i) [root@localhost ~]# sed -n '/testword/'Ip passwd.txt sed删除功能: 1.删除打印结果中指定的行:

ofbiz安装指南 (hsql/mysql/oracle+tomcat/apache)

时光怂恿深爱的人放手 提交于 2019-11-30 03:14:00
一、ofbiz 用自身数据库安装 1. 由 binary 安装: 由 binary 安装非常简单, 以下是安装方法: 下载ofbiz-2.0-beta1-complete.tar.gz, 注意不是ofbiz-2.0-beta1.tar.gz. tar xvzf ofbiz-2.0.beta1-complete.tar.gz cd tomcat/bin ./ofbiz.sh start galeon http://localhost:8080/webtools 2. 由 CVS 安装: 由 CVS 安装要稍微复杂一些. 由于 ofbiz 的更新非常快, 所以由 CVS 安装将获得最新功能. 以下是安装方法: mkdir ofbiz ln -s /PATH-TO-TOMCAT tomcat cd ofbiz export CVSROOT=:pserver:anonymous at cvs dot ofbiz.sourceforge.net:/cvsroot/ofbiz cvs login cvs co catalog cvs co commonapp cvs co core cvs co ecommerce cvs co lib cvs co ordermgr cvs co partymgr cvs co setup cvs co website cvs co webtools cvs

hadoop-安装

左心房为你撑大大i 提交于 2019-11-30 02:45:08
由于篇幅较大,废话不多说,直奔主题。 hadoop 安装同样可分为 单机模式、伪分布式、完全分布式 本文 主要 介绍完全分布式,环境 centos 6.5,hadoop-2.6.5 第一步:配置好 4 台虚拟机或者物理机,具体步骤参考我的其他博客 第二步:查看主机名,并修改           【务必记住修改主机名的方法,很多地方要用,不过不同版本方法不同】 [root@localhost ~]# hostname localhost.localdomain [root@localhost ~]# vi /etc/sysconfig/network [root@localhost ~]# hostname localhost.localdomain 修改为 NETWORKING=yes HOSTNAME=hadoop10 由于这种方法需要 重启才能生效 ,故 再查 hostname 没有变化,这里我不想重启,直接使用 临时更改命令 [root@localhost ~]# hostname hodoop10 [root@localhost ~]# hostname hodoop10 重启失效 依次修改 4 台电脑的 hostname 第三步:编辑 IP 与 hostname 的映射表 /etc/hosts 这个文件和 hostname 的修改没有任何关系,他需要放在集群中的每个节点