curl

Bad Credentials for Github API

本小妞迷上赌 提交于 2020-12-06 06:37:27
问题 I have the following script, which I am trying to test out in bash, using curl to do a couple things, one is to create a new repo, the second - which is not implemented yet - is to get the git_url from the json thats returned, which I'm not sure if my parse_json function will let me do that and then finally to push a sample commit message to that repo. the script is as follows: #!/usr/bin/env bash set -eux # Json Function: parse_json 'json string' key function parse_json() { echo $1 | sed -e

Bad Credentials for Github API

走远了吗. 提交于 2020-12-06 06:37:25
问题 I have the following script, which I am trying to test out in bash, using curl to do a couple things, one is to create a new repo, the second - which is not implemented yet - is to get the git_url from the json thats returned, which I'm not sure if my parse_json function will let me do that and then finally to push a sample commit message to that repo. the script is as follows: #!/usr/bin/env bash set -eux # Json Function: parse_json 'json string' key function parse_json() { echo $1 | sed -e

Python开发:在mac系统中安装pip

不打扰是莪最后的温柔 提交于 2020-12-05 22:08:21
pip用来安装python项目的依赖库。 大多数比较新的python版本都自带pip,所以先检查下pip是否有安装。 终端输入:pip --version 如果没有安装pip,那么就用接下来的方式安装pip。 -- 前言 安装pip的方式是运行一个python文件,因此请先确保电脑中已经安装有python。 这个python文件的内容在互联网上有,放置在【 https://bootstrap.pypa.io/get-pip.py 】中。 因此首先需要将该python文件下载到本地电脑中。 方式一: 在浏览器中访问 https://bootstrap.pypa.io/get-pip.py 网址,如果出现对话框,选择保存文件;如果在浏览器中直接显示其中的代码内容,那么就等着页面内容加载完毕以后,将代码拷贝到文本编辑器中,文件类型定义为.py(比如:get-pip.py)。 方式二: curl https: // bootstrap.pypa.io/get-pip.py -o <#目标文件地址#> 注意:在运行上面的命令行之前,先创建一个以.py为后缀空文件(比如:get-pip.py),用该文件的地址替换上面命令行中的<#目标文件地址#> 下载完该python文件之后,在终端用python运行该文件就好了。 sudo python get-pip.py 或者是 sudo python3

Fabric2.0学习进阶——搭建环境准备(一)

拥有回忆 提交于 2020-12-05 10:13:00
1.1 环境资源 Fabric推荐安装系统为Linux和Mac,本文的安装环境为安装Ubuntu系统的虚拟机,内存设置为4G。本文使用的系统安装包为ubuntu-20.04-live-server-amd64.iso,至于如何安装虚拟机请自行百度。 1.2 依赖安装 在已经准备好服务器或虚拟机的前提下,本节主要介绍Fabric平台安装部署过程中所需要的软件安装。这些软件包括: curl:下载工具,版本latest git:代码克隆工具,版本latest golang:Fabric很多组件基于Go编程开发,版本1.14.2 jq:JSON解析器,版本latest Docker:容器,版本18.06.3-ce Docker Compose:容器管理工具,版本1.25.5 Ubuntu系统提供的软件安装命令是apt-get,在进行软件安装之前,需要把资源列表进行更新,保证下载到最新的软件版本。执行如下命令实现资源列表更新: sudo apt update -y --fix-missing 1.2.1 curl安装 执行以下命令完成curl的安装: sudo apt install -y curl 查看安装结果,执行命令: curl -V 如下图所示,命令正常执行将显示版本号,发布时间等信息,表示安装成功。 1.2.2 git安装 执行以下命令完成git的安装: sudo apt

001. kogito初体验-环境准备及HelloWorld运行

血红的双手。 提交于 2020-12-05 09:59:07
工作流引擎一直都没有纳入我的知识范围,所以我并没有玩过jbpm, activiti这种传统的工作流引擎。无奈业务永远都做不完,所以终于要对BPM下手了。 1. 环境准备 截止到2020年10月19日,kogito最新版本是Pre-release 0.17.0,正式版1.0还在beta阶段。中文资料还太少,学习主要是从官方文档下手。还好kogito提供了很多的示例来满足一个工作流小白对这个框架的初体验。 $ git clone https://github.com/kiegroup/kogito-examples.git 准备工作可没这么简单,你还需要 IDE: VSCODE(官方推荐)+ kogito插件 JDK 11,为了避免一些可能存在的麻烦,我使用了openjdk 当下最新的15版。 MAVEN 3.6.2 or later 2. 示例:hello-world 2.1 运行示例 example项目下第一个示例,定义了一个脚本流程,如下图所示。 我们为这个流程指定一个唯一的process-id叫作: // 流程说明 1. 开始 - 入参name 2. 脚本任务 - SayHello,java,System . out . println ( "Hello " + name ) ; 3. 脚本任务 - UpdateMessage,java,kcontext .

Prometheus监控报警系统

☆樱花仙子☆ 提交于 2020-12-04 13:56:33
Prometheus简介 Prometheus受启发于Google的Brogmon监控系统(相似的Kubernetes是从Google的Brog系统演变而来),从2012年开始由前Google工程师在Soundcloud以开源软件的形式进行研发,并且于2015年早期对外发布早期版本。2016年5月继Kubernetes之后成为第二个正式加入CNCF基金会的项目,同年6月正式发布1.0版本。2017年底发布了基于全新存储层的2.0版本,能更好地与容器平台、云平台配合。 Prometheus简史 Prometheus作为新一代的云原生监控系统,目前已经有超过650+位贡献者参与到Prometheus的研发工作上,并且超过120+项的第三方集成。 监控的目标 在《SRE: Google运维解密》一书中指出,监控系统需要能够有效的支持白盒监控和黑盒监控。通过白盒能够了解其内部的实际运行状态,通过对监控指标的观察能够预判可能出现的问题,从而对潜在的不确定因素进行优化。而黑盒监控,常见的如HTTP探针,TCP探针等,可以在系统或者服务在发生故障时能够快速通知相关的人员进行处理。通过建立完善的监控体系,从而达到以下目的: ***长期趋势分析:***通过对监控样本数据的持续收集和统计,对监控指标进行长期趋势分析。例如,通过对磁盘空间增长率的判断

linux实验3

自作多情 提交于 2020-12-04 07:13:00
一、练习shell命令历史、别名、特殊字符用法 二、 1./etc/passwd passwd为密码文件,用来管理用户的密码。普通用户通常只能修改自己的密码信息。 2. /etc/shadow shadow是一个影子化的密码文件,它包含系统账户的密码信息和可选的年龄信息。只有管理员能查看修改。 3. /etc/group group文件是用户组的配置文件,内容包括用户和用户组,并且能显示出用户是归属哪个用户组或哪几个用户组,因为一个用户可以归属一个或多个不同的用户组;同一用户组的用户之间具有相似的特征。 4./etc/gshadow /etc/gshadow是/etc/group的加密资讯文件,比如用户组(Group)管理密码就是存放在这个文件。/etc/gshadow和/etc/group是互补的两个文件;对于大型服务器,针对很多用户和组,定制一些关系结构比较复杂的权限模型,设置用户组密码是极有必要的。 、shell 命令应用练习 (1) 1、/etc/passwd 用户账户文件 2、/etc/shadow可选加密后的密码文件 3、/etc/group 有关用户组管理的一个文件 4、/etc/gshadow包含影子化了的组账目信息 (2) id命令输出所有用户的自己id和组id id -u 显示用户用户id id -u root 显示用户root的id·   id -u

curl命令基本使用小总结

冷暖自知 提交于 2020-11-30 02:31:00
curl 下载文件 -o:将文件保存为命令行中指定的文件名的文件中 -O:使用URL中默认的文件名保存文件到本地 --limit-rate:限速 -C:对大文件使用断点续传功能 --silent:不显示进度信息 # 当文件在下载完成之前结束该进程 [root@ ~]# curl -O http://www.gnu.org/software/gettext/manual/gettext.html ###### ######## 20.1% # 通过添加-C选项继续对该文件进行下载,已经下载过的文件不会被重新下载 [root@ ~]# curl -C - -O http://www.gnu.org/software/gettext/manual/gettext.html ###### ######### 21.1% 认证授权 在访问需要授权的页面时,可通过**-u**选项提供用户名和密码进行授权 [root@ ~]# curl -u username:password URL 通常的做法是在命令行只输入用户名,之后会提示输入密码,这样可以保证在查看历史记录时不会将密码泄露 [root@ ~]# curl -u username URL 传递请求数据 默认curl使用GET方式请求数据,可以通过 --data/-d 方式指定使用POST方式传递数据 # GET [root@ ~]

curl命令总结

前提是你 提交于 2020-11-29 20:23:52
1.下载网页 -o 2.通过代理访问 -x $ curl -x 123.45.67.89:1080 -o page.html http://www.google.com 3.获取response cookie信息 -o 4.追加cookie信息到http request中 5. 特定的浏览器去访问 -A 6.下载文件 -O 它跟-o的不同点:1.自动根据下载的文件命令 2.支持批量下载 curl -c -O http://cgi2.tky.3wb.ne.jp/~zzh/screen1.JPG 分块下载 -r 7.POST -X 如果不是用-X,默认是以GET方式发送请求的,如果想用其他方法,需加上-X参数,同时,后面跟上方法名称,如POST/PUT/DELETE。 8. POST -d 9. -F 为带文件的形式发送post请求 curl -F "blob=@card.txt;type=text/plain" "http://172.16.102.208:8089/wiapi/score?leaderboard_id=7778a8143f111272&score=40&app_key=8d49f16fe034b98b&_test_user=test01" 其中-F 为带文件的形式发送post请求, blob为文本框中的name元素对应的属性值。<type="text" name=

scrapyd使用教程

故事扮演 提交于 2020-11-29 04:49:33
1. 安装服务器: pip install scrapyd 启动: scrapyd 访问:127.0.0.1:6800 2. 安装客户端 pip install scrapyd-client 3. 进入爬虫项目根目录:找到 scrapy.cfg 文件 修改如下 [settings] default = blog.settings [deploy:zwb] url = http://localhost:6800/ project = blog 4. 发布项目 scrapyd-deploy target -p prject 这里target 为你的服务器命令,prject是你项目的名字,发布项目之前我们的scrapyd.cfg必须修改,上面我们已经修改过了, 因此我的命令是:scrapyd-deploy zwb -p blog scrapyd-deploy < target> -p < project> --version < version> 4.2 启动爬虫 curl http://localhost:6800/schedule.json -d project=blog -d spider=demo 4.3 停止爬虫 curl http://localhost:6800/cancel.json -d project=blog -d job=demo blog:你爬虫项目的名字