lib文件

CentOs7 安装Hadoop-3.1.0集群搭建

匿名 (未验证) 提交于 2019-12-03 00:29:01
虚拟机准备 master 172.16.20.11 slave1 172.16.20.12 slave2 172.16.20.13 安装JDK version 1.8.0_121,注意需要配置环境变量。 安装:参考 https://blog.csdn.net/boonya/article/details/55506386 SSH免密登录 1、修改hostname [root@localhost local]# hostname master [root@localhost local]# hostname master [root@localhost local]# [root@localhost local]# hostname slave1 [root@localhost local]# hostname slave1 [root@localhost local]# [root@localhost local]# hostname slave2 [root@localhost local]# hostname slave2 [root@localhost local]# 2、修改/etc/hosts文件 172.16.20.11 master 172.16.20.12 slave1 172.16.20.13 slave2 3、ping验证 [root@localhost

OpenCasCade开发环境搭建(vs2010 编译编译源码)

匿名 (未验证) 提交于 2019-12-03 00:29:01
我的安装环境 OpenCasCade下载和安装 OpenCasCade编译、示例运行及使用 总结 我的安装环境: Windows7 旗舰版 SP1 x64; Visual Studio 2010 SP1; 如图为OpenCasCade官方文档上列出的 Requirements : 注意 Visual Studio 的版本要求。 OpenCasCade下载和安装 请自行到OpenCasCade官网进行 下载 解压后的OpenCasCade目录如图: 接下来,下载适合自己编译器版本的第三方库( 官方下载地址 ): Note:这里的第三方库都是根据相应的平台编译生成好的,直接下载解压即可使用。如果不从这里下,而是从各个第三方库的官网下载,则需要自己根据平台自行编译对应的版本,下面也会告诉你怎么自己编译生成。 OpenCasCade编译、示例运行及使用 1. 确保你下载安装了所有需要的第三方库(对照上图) OCCT使用两种类型的第三方库: 强依赖(必须的): 弱依赖(可选的): FreeImage 3.14.1 -3.15.4. 安装强依赖的第三方库: Tcl/Tk FreeType FreeType是3D窗口中,文字表现所必须的。 解压下载的FreeType到occ3rdparty文件中即可。 如果你 不是 从上图适配过的第三方库链接下载的(是的跳过 ,比如你从其自身官网下载

第十五次课

匿名 (未验证) 提交于 2019-12-03 00:27:02
保存和备份iptables规则 service iptables save //会把规则保存到/etc/sysconfig/iptables [root @linux7 - 128 ~] # service iptables save iptables: Saving firewall rules to /etc/sysconfig/ iptables: [ 确定 ] 把iptables规则备份到my.ipt文件中 iptables-save > my.ipt [root@linux7-128 ~]# iptables-save > /tmp/my.txt [root@linux7-128 ~]# cat /tmp/my.txt # Generated by iptables-save v1.4.21 on Tue Jun 12 19:16:51 2018 *mangle :PREROUTING ACCEPT [277:25577] :INPUT ACCEPT [277:25577] :FORWARD ACCEPT [0:0] :OUTPUT ACCEPT [239:28886] :POSTROUTING ACCEPT [248:30809] - A POSTROUTING -o virbr 0 -p udp -m udp --dport 68 -j CHECKSUM -

SpringBoot 项目打包分开lib,配置和资源文件

匿名 (未验证) 提交于 2019-12-03 00:27:02
< build > < plugins > < plugin > < groupId > org.apache.maven.plugins </ groupId > < artifactId > maven-dependency-plugin </ artifactId > < version > 2.10 </ version > < executions > < execution > < id > copy-dependencies </ id > < phase > package </ phase > < goals > < goal > copy-dependencies </ goal > </ goals > < configuration > < outputDirectory > target/lib </ outputDirectory > < excludeTransitive > false </ excludeTransitive > < stripVersion > false </ stripVersion > < includeScope > runtime </ includeScope > </ configuration > </ execution > </ executions > </ plugin > < plugin > <

IDEA-web项目的部署

匿名 (未验证) 提交于 2019-12-03 00:26:01
一、创建新项目 二、创建web模块--module 》》next;填写web项目名地址 》》在WEB-INF文件下创建classes文件与lib文件 classes文件:存放编译后的class文件;lib文件:导入的包 》》配置class与lib文件 然后选择已经创建好的classes文件位置 然后配置lib文件 》》弹框中选择lib文件的目录位置 》》选择Jar Directory,点击ok 最后点击Apply,ok保存 三、配置Tomcat 》》然后点击Deployment,点击加号,点击Artifact。。 四、运行Tomcat 》》点击目录下的index.jsp文件,然后浏览器打开 》》出现$END$---配置成功啦 文章来源: IDEA-web项目的部署

05-Hive的连接3种连接方式

匿名 (未验证) 提交于 2019-12-03 00:26:01
一、CLI连接 二、HiveServer2/beeline 1、修改 hadoop 集群的 hdfs-site.xml 配置文件 2、修改 hadoop 集群的 core-site.xml 配置文件 三、Web UI 一、CLI连接 进入到 bin 目录下,直接输入命令: [hadoop@hadoop3 ~]$ hive SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/home/hadoop/apps/apache-hive-2.3.3-bin/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/home/hadoop/apps/hadoop-2.7.5/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.

05-Hive的连接3种连接方式

匿名 (未验证) 提交于 2019-12-03 00:26:01
一、CLI连接 二、HiveServer2/beeline 1、修改 hadoop 集群的 hdfs-site.xml 配置文件 2、修改 hadoop 集群的 core-site.xml 配置文件 三、Web UI 一、CLI连接 [hadoop@hadoop3 ~]$ hive SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/home/hadoop/apps/apache-hive-2.3.3-bin/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/home/hadoop/apps/hadoop-2.7.5/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding

CMake 基本使用方法

匿名 (未验证) 提交于 2019-12-03 00:26:01
1. 学习背景 C语言工程使用make来构建工程,但是对于大型工程来说文件的依赖关系很复杂,手写makefile非常麻烦,一般开源代码的构建方式都是使用autotool来配置编译环境和自动生成makefile,但是autotool配置涉及到的文件很多,操作步骤比较繁琐,产生了一些替代的方案,cmake是其中最优秀的之一。 cmake相较于autotool简化了很多步骤,只需编写CMakeLists.txt文件,然后运行cmake命令即可。 其实搭建一个非跨平台的工程,我更喜欢eclipse自带的自动构建方式,不用编写什么配置文件,只要在设置里添加头文件路径和库路径,添加文件直接把源文件拷到工程目录下就可以了,因为eclipse里工程目录和文件目录是保持同步的。但是涉及到跨平台的工程,所用到源代码是不同的,对应gcc有不同的编译选项,这时eclipse的灵活性就不够了,需要重新搭建工程。而用自动构建工具的配置文件和脚本结合在一起可以灵活的把不同平台下的编译环境组织到一个工程里面,在makefile里根据需要的平台提供了自定义的多种目标构建方式。 开源代码的编译环境都已经构建好了,不再需要我们重新编写配置文件,运行一条./configure或cmake命令即可,这时会生成一个makefile文件,然后就可以在eclipse指定外部的makefile进行编译了。

多版本opencv配置(opencv3.3下配置opencv2.4.13)

匿名 (未验证) 提交于 2019-12-03 00:26:01
在原有版本上配置方式不变。。 配置的主要步骤为: 1、到opencv管网下载opencv2.4.13,位exe文件,双击即可解压到指定目录 2、对电脑的环境变量进行设置 E:\opencv\opencv2.4.13\build\x86\vc12\bin 3、VC++目录下设置引导目录 E:\opencv\opencv2.4.13\build\include E:\opencv\opencv2.4.13\build\include\opencv E:\opencv\opencv2.4.13\build\include\opencv2 4、VC++目录下设置库目录 E:\opencv\opencv2.4.13\build\x86\vc12\lib 5、添加附加依赖项 opencv2.4.13配置的lib列表, dehugģʽ opencv_calib3d2413d.lib opencv_contrib2413d.lib opencv_core2413d.lib opencv_features2d2413d.lib opencv_flann2413d.lib opencv_gpu2413d.lib opencv_highgui2413d.lib opencv_imgproc2413d.lib opencv_legacy2413d.lib opencv_ml2413d.lib opencv

jmeter导入jmx文件报错:missing class com.thoughtworks.xstream.converters.ConversionException

匿名 (未验证) 提交于 2019-12-03 00:24:01
参考博客: jmeter导入jmx文件报错:missing class com.thoughtworks.xstream.converters.ConversionException 如果还不行,就把jpgc-json-2.6.zip里的文件放到lib\ext下。 文章来源: jmeter导入jmx文件报错:missing class com.thoughtworks.xstream.converters.ConversionException