curl

Transfer a wireshark captured http request to a curl request

只谈情不闲聊 提交于 2020-08-06 07:26:28
问题 I am trying to simulate a post request from a system I am not familiar with(http thrift). With wire shark, I get the http request like :. But I am going to perform a stress test with tools like ab , so How I can transfer a Wireshark package to a ab or curl command http request ? 回答1: Here are two tools that can help you: h2c, HTTP headers to curl, which converts a HTTP request to a suitable curl command line. (written by me) pcap2curl, which is similar in style but instead converts a saved

UKUI Desktop Environment

浪子不回头ぞ 提交于 2020-08-06 07:15:34
install $ sudo add-apt-repository ppa:ubuntukylin-members/ukui3.0 $ sudo apt upgrade or $ sudo apt-get install curl $ curl -sL 'https://keyserver.ubuntu.com/pks/lookup?&op=get&search=0x73BC8FBCF5DE40C6ADFCFFFA9C949F2093F565FF' | sudo apt-key add $ sudo apt-add-repository 'deb http://archive.ubuntukylin.com/ukui focal main' $ sudo apt upgrade 来源: oschina 链接: https://my.oschina.net/qwfys200/blog/4335215

How to run a curl command from java? [duplicate]

笑着哭i 提交于 2020-08-06 07:10:09
问题 This question already has an answer here : Using curl command in java (1 answer) Closed 2 years ago . I am trying to make a POST request from Java using curl. It also has some payload. I am getting status code 400. What am I missing? Following is the curl I use in terminal.. curl --cookie "token=xyzxyzxyzxyz" --header "Content-Type:application/json" --data {"branchName":"name","branchId":"bid","sourceBranch":"sb","alias":"pppp","mainPackageFullPath":"main.full.path"}' -k http://app.aws

DNSlog注入学习

做~自己de王妃 提交于 2020-08-06 04:15:11
之前一直有看到过DNSlog这个字眼,但一直没有好好去了解一下,最近又接触到了刚好来深入学习下 0x01 什么是DNSlog 我们都知道DNS就是将域名解析为ip,用户在浏览器上输入一个域名A.com,就要靠DNS服务器将A.com解析到它的真实ip127.0.0.1,这样就可以访问127.0.0.1服务器上的相应服务。 那么DNSlog是什么。DNSlog就是存储在DNS服务器上的域名信息,它记录着用户对域名www.baidu.com等的访问信息,类似日志文件。 那怎么利用DNSlog进行注入呢?得深入了解一下DNSlog 0x02 DNSlog回显原理 前面说DNSlog就是日志,那怎么用DNSlog进行注入并回显信息呢。我们得再了解一个多级域名的概念。 域名分级与域名解析过程(DNS) 因特网采用层次树状结构命名方法。域是名字空间中一个可被管理的划分(按机构组织划分),域可被划分为子域,子域可再被划分,即形成了顶级域名、二级域名、三级域名等。从右向左为顶级域名、二级域名、三级域名等,用点隔开。如: tieba.baidu.com 它由三个标号组成, com即为顶级域名,baidu为二级域名,tieba即为三级域名。且域名不分区大小写。 再来看一个图 通俗的说就是我有个已注册的域名a.com,我在域名代理商那里将域名设置对应的ip 1.1.1.1 上

pexpo

心已入冬 提交于 2020-08-05 23:43:48
pexpo | pexpo.exe [-i interval] [-t timeout] [-f ping-list] [-A] [-H] [-S] [-V] Examples: ./pexpo -i 500ms -t 1s -f /usr/local/ping-list.txt pexpo.exe -i 500ms -t 1s -f C:\Users\arale\Desktop\ping-list.txt Option: -i Sending ICMP interval time(Default:500ms, should not be lower this). You must not use "200" or "1" or..., must use "200ms" or "1s" or ... , so use with time's unit. -t Sending ICMP timeout time(Default:3s) You must not use "200" or "1" or..., must use "200ms" or "1s" or ... , so use with time's unit. this "timeout" is Exact meaning, fastping.NewPinger() receives OnRecv struct

Server Name Indication(SNI)

夙愿已清 提交于 2020-08-05 23:35:17
SNI (Server Name Indication)是用来改善服务器与客户端 SSL (Secure Socket Layer)和 TLS (Transport Layer Security) 的一个扩展。主要解决一台服务器只能使用一个证书(一个域名)的缺点,随着服务器对虚拟主机的支持,一个服务器上可以为多个域名提供服务,因此SNI必须得到支持才能满足需求。 SNI产生背景 SSL以及TLS(SSL的升级版)为客户端与服务器端进行安全连接提供了条件。但是,由于当时技术限制,SSL初期的设计顺应经典的公钥基础设施 PKI(Public Key Infrastructure)设计,PKI 认为一个服务器只为一个域名提供服务,从而一个服务器上也就只能使用一个证书。这样客户端在发送请求的时候,利用DNS域名解析,只要向解析到的IP地址(服务器地址)发送请求,然后服务器将自身唯一的证书返回回来,交给客户端验证,验证通过,则继续进行后续通信。然后通过协商好的加密通道,获得所需要的内容。这意味着服务器可以在 SSL 的启动动阶段发送或提交证书,因为它知道它在为哪个特定的域名服务。 随着HTTP 服务器开启虚拟主机支持后,每个服务器通过相同的IP地址可以为很多域名提供服务。这种为虚拟主机提供通信安全的简单途径,却经常导致使用了错误的数字证书

除了Python,Go也成为最受欢迎的黑客工具

无人久伴 提交于 2020-08-05 19:38:01
Python实战社群 Java实战社群 长按识别下方二维码, 按需求添加 扫码关注添加客服 进Python社群▲ 扫码关注添加客服 进Java社群 ▲ 作者丨xplanet 来源丨开源中国(oschina2013) https://mp.weixin.qq.com/s/YZysWe0zLqawRUOL_f6p-A 网络安全公司 Imperva Cloud WAF 近期分享了其在 2019 年一年内针对网络安全事件的观察。对数据进行聚类分析后,他们得到了如下结论: 按工具来分类,Python 依旧是大多数黑客的首选武器,紧接着是使用量增长迅速的 Go 语言;再其次是 WinHttp 库,该库主要由 Windows 上运行的 .net 和 CPP 使用;Shell 工具(如 cURL、wget 等)也榜上有名。浏览器也是常用的攻击工具。 根据 GitHut 2.0 给出的统计信息,Python 和 Go 都在 2019 年的前五大语言中占有一席之地。于是,Imperva 公司又将目光聚焦到了 GitHub 上的网络安全项目。GitHub 虽然未对存储库进行直接分类,但 Security 主题下拥有超过 8,500 个与安全相关的库,而这些库中的主要语言分别为:长期排在第一位的 Python,其次是 Java、JavaScript 和 PHP,最后是 Go。前四位毫不令人意外,而 Go

springboot与elasticsearch整合

此生再无相见时 提交于 2020-08-05 10:31:40
资源下载: ElasticSearch官方下载地址: https://www.elastic.co/downloads/elasticsearch curl下载地址: http://curl.haxx.se/download.html Kibana下载地址: https://www.elastic.co/guide/en/kibana/4.6/index.html sense下载地址: https://download.elastic.co/elastic/sense/sense-latest.tar.gz ik分词器下载地址: https://github.com/medcl/elasticsearch-analysis-ik logstash下载地址: https://www.elastic.co/cn/downloads/logstash elasticsearch官网地址: https://www.elastic.co 注意:ElasticSearch和Kibana版本必须一致 我用到的elasticsearch版本和Kibana是 6.4.3 1,查看本地项目spring和springboot版本号 public static void main(String[] args) { System.out.println(SpringVersion.getVersion())

从零开始学习Linux:Day04 源码安装Nginx 。acess/status/referer

笑着哭i 提交于 2020-08-05 07:47:06
从零开始学习Linux:Day04 源码安装Nginx 。acess/status/referer 常见web服务器有IIS,apche,nginx,tomcat,tengine等等,现在nginx使用占比上非常大,特别是电商,社区上大多都使用nginx,它有高并发的优点。以下是nginx自己对此的描述:a strong focus on high concurrency 为了便于后绪维护与管理。建议使用源码来安装nginx,虽然yum安装比较方便,但是yum安装后,nginx目录比较混乱。源码安装,可以指定安装目录,指定安装功能模块,比较灵活。 一、源码安装nginx 1、下载nginx源码包 cd /usr/src wget -c http://nginx.org/download/nginx-1.16.0.tar.gz 或者: wget –c http://nginx.org/download/nginx-1.16.0.tar.gz -P /usr/src usr/src目录一般用来存放软件。所以通常会把软件下载到这个目录。 2、解压nginx源码包 tar -zxvf nginx-1.16.0.tar.gz 3、预编译 源码安装三步骤之第一步:预编译。为何要预编译,预编译就是来检测nginx源码安装时很依赖的环境 ,库文件。检测linux系统是否存在GCC,C++等编译环境

elasticsearch返回指定字段

ε祈祈猫儿з 提交于 2020-08-05 06:18:29
1. postman 请求elasticsearch 返回指定字段   1.直接在请求体当中,json 数据,对应的是一个列表 {   "_source":['title','id','desc'],   "from":10,   "size":100, }    至于from和size是浅分页    2. 或者这样 { " _source " :{ "includes " :[ " title " , " url " , " id " ], "excludes " :[ " desc " ] } }   其中includes代表需要返回的字段,excludes代表不要返回的字段   3.直接在请求url带上需要查询参数 curl -XGET ' localhost:9200/_search?pretty&filter_path=took,hits.hits._id,hits.hits._score ' { " took " : 3 , " hits " : { " hits " : [ { " _id " : " 3640 " , " _score " : 1.0 }, { " _id " : " 3642 " , " _score " : 1.0 } ] } }   对_source的字段进行过滤 curl -XGET ' localhost:9200/_search