bin

linux-系统目录结构

ⅰ亾dé卋堺 提交于 2019-12-14 11:52:35
登录系统后,输入ls可以查看到根目录下的所有的目录 树状目录结构: 以下是对这些目录的解释: /bin: bin是Binary的缩写, 这个目录存放着最经常使用的命令。 /boot: 这里存放的是启动Linux时使用的一些核心文件,包括一些连接文件以及镜像文件。 /dev : dev是Device(设备)的缩写, 该目录下存放的是Linux的外部设备,在Linux中访问设备的方式和访问文件的方式是相同的。 /etc: 这个目录用来存放所有的系统管理所需要的配置文件和子目录。 /home: 用户的主目录,在Linux中,每个用户都有一个自己的目录,一般该目录名是以用户的账号命名的。 /lib: 这个目录里存放着系统最基本的动态连接共享库,其作用类似于Windows里的DLL文件。几乎所有的应用程序都需要用到这些共享库。 /lost+found: 这个目录一般情况下是空的,当系统非法关机后,这里就存放了一些文件。 /media: linux系统会自动识别一些设备,例如U盘、光驱等等,当识别后,linux会把识别的设备挂载到这个目录下。 /mnt: 系统提供该目录是为了让用户临时挂载别的文件系统的,我们可以将光驱挂载在/mnt/上,然后进入该目录就可以查看光驱里的内容了。 /opt: 这是给主机额外安装软件所摆放的目录。比如你安装一个ORACLE数据库则就可以放到这个目录下。默认是空的。

python中#!/usr/bin/python与#!/usr/bin/env python的区别

被刻印的时光 ゝ 提交于 2019-12-14 11:24:48
【推荐】2019 Java 开发者跳槽指南.pdf(吐血整理) >>> 目的是在运行python脚本的时候告诉操作系统我们要用python解释器去运行py脚本 所以我们在第一句往往会写如下两句中的其中一句: #!/usr/bin/python 或 >#!/usr/bin/env python 就是说在没有在执行程序时指出用什么程序运行py脚本时,系统会去调用python程序来执行。 举个简单的例子: 我们在linux环境下写一个最简单的python脚本 vim hello.py #!/usr/bin/python 或者#!/usr/bin/env python print ‘ helloworld! 编写完成后正常我们在会输入命令: python hello.py来执行这个脚本,但是因为有了第一行的声明,所以我们只要是给这个py脚本添加可执行权限,那我们就可以直接 ./hellp.py 来执行了。   在这里还是要推荐下我自己建的 Python开发学习群:725479218 ,群里都是学Python开发的,如果你正在学习Python ,小编欢迎你加入,大家都是软件开发党,不定期分享干货(只有Python软件开发相关的),包括我自己整理的一份2018最新的Python进阶资料和高级开发教程,欢迎进阶中和进想深入Python的小伙伴 #!/usr/bin/python与#!/usr

linux下安装mysql-5.7.25详细步骤

我们两清 提交于 2019-12-14 07:27:03
一、清理老的mysql (1)卸载已有的mysql   查找以前是否装有mysql命令:   1 rpm -qa|grep -i mysql 停止mysql服务,卸载之前安装的mysql   1  rpm -ev 包名   如果卸载过程中报依赖错误,直接在卸载命名后面加参数 --nodeps   1  rpm -ev 包名 --nodeps (2)查找之前老版本mysql的文件并删除老版本mysql的文件   1  find / -name mysql   2  # 出来一堆列表   3  # 一个一个删除就ok 二、安装前的准备 (1)安装mysql之前需要确保系统中有libaio依赖   1  yum search libaio   2  yum install libaio (2)下载安装包(tar.gz的包,非rpm和yum)   1  cd /usr/   2  mkdir database   3  cd database   4  wget https://cdn.mysql.com//Downloads/MySQL-5.7/mysql-5.7.22-el7-x86_64.tar.gz    注意:官网一般都很慢,网易国内镜像地址: http://mirrors.163.com/mysql/Downloads/MySQL-5.7/mysql-5.7.27-linux

使用JMX+JConsole监控Kafka

寵の児 提交于 2019-12-14 05:10:53
1. 修改Kafka安装目录下bin中kafka-run-class.sh 文件: [root@localhost kafka-02]# vi bin/kafka-run-class.sh ... # JMX settings if [ -z "$KAFKA_JMX_OPTS" ]; then KAFKA_JMX_OPTS="-Dcom.sun.management.jmxremote -Dcom.sun.management.jmxremote.authenticate=false -Dcom.sun.management.jmxremote.ssl=false -Djava.rmi.server.hostname=192.168.131.130 " // 增加部分 fi ... 2. 修改bin中kafka-server-start.sh文件: [root@localhost kafka-02]# vi bin/kafka-server-start.sh ... if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G" export JMX_PORT="9988" // 增加部分 fi ... 3. 修改完成后,重新启动kafka: [root@localhost kafka-02

MySQL如何通过bin-log日志进行数据还原

。_饼干妹妹 提交于 2019-12-13 15:42:53
Binlog日志,即binary log,是二进制日志文件,有两个作用,一个是增量备份,另一个是主从复制,即主节点维护一个binlog日志文件,从节点从binlog中同步数据,也可以通过binlog日志来恢复数据 1,登录mysql查看binlog日志的状态,输入show variables like ‘%log_bin%’;查看binlog为off关闭状态 2,开启mysql binlog日志,进入mysql配置文件(vi /etc/my.cnf) 在mysqld区域内添加如下内容,①server-id = 1(单个节点id) ②log-bin= /var/lib/mysql/mysql-bin(位置一般和mysql库文件所在位置一样) ③expire_logs_days = 10(表示此日志保存时间为10天), 重启mysqld ,再次查看binlog日志开启状态为ON 3,Binlog日志包括两类文件;第一个是二进制索引文件(后缀名为.index),第二个为日志文件(后缀名为.00000*),记录数据库所有的DDL和DML(除了查询语句select)语句事件 4,查看所有binlog日志文件列表:show master logs; 5,查看最后一个binlog日志的编号名称及其最后一个操作事件pos结束点的值:show master status; 6,Flush logs

shell脚本头部,#!/bin/...

佐手、 提交于 2019-12-13 05:22:11
1. 简介 常见的脚本头部都有如下声明: #!/bin/sh #!/bin/bash #!usr/bin/env python3 #!/bin/sh 是指此脚本使用/bin/sh来解释执行,#!是特殊的表示符,其后面跟的是此解释此脚本的shell的路径。 cat /etc/shells 可以查看系统支持的shell格式. 2. 区别 GNU/Linux操作系统中的 /bin/sh 本是 bash (Bourne-Again Shell) 的符号链接,但鉴于 bash 过于复杂,有人把 bash 从NetBSD移植到Linux并更名为 dash (Debian Almquist Shell) ,并建议将 /bin/sh 指向它,以获得更快的脚本执行速度。Dash Shell 比Bash Shell小的多,符合POSIX标准。 标记为 #!/bin/sh 的脚本不应使用任何 POSIX 没有规定的特性 (如 let 等命令, 但 #!/bin/bash 可以)。Debian曾经采用 /bin/bash 更改 /bin/dash ,目的使用更少的磁盘空间、提供较少的功能、获取更快的速度。但是后来经过shell脚本测试存在运行问题。因为原先在 bash shell 下可以运行的shell script (shell 脚本),在 /bin/sh 下还是会出现一些意想不到的问题,不是100

Interesting binary dump of executable file

大兔子大兔子 提交于 2019-12-13 04:23:08
问题 For some reason I made simple program in C to output binary representation of given input: int main() { char c; while(read(0,&c,1) > 0) { unsigned char cmp = 128; while(cmp) { if(c & cmp) write(1,"1",1); else write(1,"0",1); cmp >>= 1; } } return 0; } After compilation: $ gcc bindump.c -o bindump I made simple test to check if program is able to print binary: $ cat bindump | ./bindump | fold -b100 | nl Output is following: http://pastebin.com/u7SasKDJ I suspected the output to look like

Linux下的crontab定时执行任务命令详解

微笑、不失礼 提交于 2019-12-13 03:48:29
在LINUX中,周期执行的任务一般由cron这个守护进程来处理[ps -ef|grep cron]。cron读取一个或多个配置文件,这些配置文件中包含了命令行及其调用时间。 cron的配置文件称为“crontab”,是“cron table”的简写。 一、cron服务   cron是一个linux下 的定时执行工具,可以在无需人工干预的情况下运行作业。   service crond start //启动服务   service crond stop //关闭服务   service crond restart //重启服务   service crond reload //重新载入配置   service crond status //查看服务状态 二、cron在3个地方查找配置文件: 1、/var/spool/cron/ 这个目录下存放的是每个用户包括root的crontab任务,每个任务以创建者的名字命名,比如tom建的crontab任务对应的文件就是/var/spool/cron/tom。一般一个用户最多只有一个crontab文件。 三、/etc/crontab 这个文件负责安排由系统管理员制定的维护系统以及其他任务的crontab。 SHELL=/bin/bash PATH=/sbin:/bin:/usr/sbin:/usr/bin MAILTO=root HOME=/

linux各个文件夹的作用

最后都变了- 提交于 2019-12-12 18:08:07
/ 根目录   包含了几乎所的文件目录。相当于中央系统。进入的最简单方法是:cd /。 /boot 引导程序,内核等存放的目录 这个目录,包括了在引导过程中所必需的文件。在最开始的启动阶段,通过引导程序将内核加载到内存,完成内核的启动(这个时候, 虚拟文件系统 还不存在,加载的内核虽然是从硬盘读取的,但是没经过Linux的 虚拟文件系统 ,这是比较底层的东西来实现的。然后内核自己创建好 虚拟文件系统 ,并且从虚拟文件系统的其他子目录中(例如/sbin 和 /etc加载需要在开机启动的其他程序或者服务或者特定的动作(部分可以由用户自己在相应的目录中修改相应的文件来配制。如果我们的机器中包含多个操作系统,那么可以通过修改这个目录中的某个配置文件(例如grub.conf来调整启动的默认操作系统,系统启动的择菜单,以及启动延迟等参数。 /sbin 超级用户 可以使用的命令的存放目录 存放大多涉及 系统管理 的命令(例如引导系统的init程序,是超级权限用户root的可执行命令存放地,普通用户无权限执行这个目录下的命令(但是有时普通用户也可能会用到。)我们要记住,凡是目录sbin中包含的都是 root权限 才能执行的。 /bin 普通用户可以使用的命令的存放目录 系统所需要的那些命令位于此目录,比如ls、cp、mkdir等命令;类似的目录还/usr/bin,/usr/local/bin等等

windows下安装spark及hadoop

别等时光非礼了梦想. 提交于 2019-12-12 18:00:54
windows下安装spark 1、安装jdk 2、安装scala 3、下载spark spark下载地址 3.1安装spark 将下载的文件解压到一个目录,注意目录不能有空格,比如说不能解压到C:\Program Files 作者解压到了这里, 将spark的bin路径添加到path中 cmd输入spark-shell,成功安装啦,有个报错是因为还没安装Hadoop, 4、安装hadoop 由于spark版本为spark-2.3.3-bin-hadoop2.7,我们选择下2.8.5版本的Hadoop 解压 添加环境变量,新建一个HADOOP_HOME(必须要添加HADOOP_HOME不然会报错) 在path添加(必须要添加path不然会报错) 到此运行spark-shell还会有没安装的时候那个报错,接下来需要替代Hadoop里的bin文件来解决这个错。 5、下载winutils 下载地址 笔者用的是hadoop2.8.5版本的,下载的winutils上hadoop2.8.3版本的bin,实测也是可行的。 接下来将bin替换原来Hadoop中的bin 6、运行spark-shell成功啦 来源: CSDN 作者: 柳牧之 链接: https://blog.csdn.net/u012976879/article/details/103511339