post请求

(004)Linux http命令curl访问url

前提是你 提交于 2019-11-27 17:12:28
curl www.baidu.com  访问一个网页 curl -o tt.html www.baidu.com  将访问www.baidu.com返回的内容写入tt.html curl -i www.baidu.com  显示响应的头信息 curl -v www.baidu.com  显示一次http请求的通信过程 curl -X GET/PUT/POST/DELETE url  执行GET/PUT/POST/DELETE操作(必须用大写) 来源: https://www.cnblogs.com/javasl/p/11371215.html

【Django】AJAX

萝らか妹 提交于 2019-11-27 15:00:00
目录 JSON 序列化 stringify 反序列化 parse JSON与XML对比 AJAX简介 AJAX常见应用场景 jQuery实现AJAX JS实现AJAX AJAX请求设置csrf_token 方法一 方法二 方法三 AJAX其它实例 上传文件实例 判断用户名是否已被注册 原文: http://blog.gqylpy.com/gqy/268 "@ * 补充Django内置的两个装饰器方法:** from django.views.decorators.csrf import csrf_exempt, csrf_protect # csrf_exempt:给指定视图排除csrf校验 csrf_protect:指定某个视图必须csrf校验 # 注意:如果时CBV,则必须装饰到dispatch方法上 使用ensure_csrf_cookie()装饰器可以强制设置csrf到Cookie: django.views.decorators.csrf import ensure_csrf_cookie @ensure_csrf_cookie def login(request): pass DJango内置的序列化方法: from django.core import serializers def user_list(request): user_list = models

接口测试--官方requests库

落花浮王杯 提交于 2019-11-27 14:45:41
Requests库的中文文档(非常重要) 版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。 Requests库是一个非常牛逼的http请求的库,做接口测试非他莫属!! 地址如下:http://docs.python-requests.org/zh_CN/latest/user/quickstart.html 高级用法:http://docs.python-requests.org/zh_CN/latest/user/advanced.html#ssl ———————————————— 发送请求 使用 Requests 发送网络请求非常简单。 一开始要导入 Requests 模块: >>> import requests 然后,尝试获取某个网页。本例子中,我们来获取 Github 的公共时间线: >>> r = requests.get('https://api.github.com/events') 现在,我们有一个名为 r 的 Response 对象。我们可以从这个对象中获取所有我们想要的信息。 Requests 简便的 API 意味着所有 HTTP 请求类型都是显而易见的。例如,你可以这样发送一个 HTTP POST 请求: >>> r = requests.post('http://httpbin.org/post',

python-爬虫day1

一笑奈何 提交于 2019-11-27 13:48:29
定义: 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。 ************************************************************************* Requests Requests 是使用 Apache2 Licensed 许可证的 基于Python开发的HTTP 库,其在Python内置模块的基础上进行了高度的封装,从而使得Pythoner进行网络请求时,变得美好了许多,使用Requests可以轻而易举的完成浏览器可有的任何操作。 1、GET请求 # 1、无参数实例 import requests ret = requests.get('https://github.com/timeline.json') print ret.url print ret.text 无参实例 # 2、有参数实例 import requests payload = {'key1': 'value1', 'key2': 'value2'} ret = requests.get("http://httpbin.org/get", params=payload) print ret.url

Post、Get请求

走远了吗. 提交于 2019-11-27 12:28:29
post、get请求方法 /// <summary> /// Post、Get请求 /// </summary> /// <param name="url">请求地址(http:localshost:8080)</param> /// <param name="method">请求方式(post、get)</param> /// <param name="bodys">post请求参数</param> /// <param name="querys">get请求蚕食</param> /// <param name="headers">请求头</param> /// <param name="contentType">编码方式(application/x-www-form-urlencoded)</param> /// <returns></returns> public static string HttpInvoker(string url, string method, string bodys, string querys, Dictionary<string, string> headers, string contentType) { HttpWebRequest httpRequest = null; HttpWebResponse httpResponse =

Spider爬虫-get、post请求

时光毁灭记忆、已成空白 提交于 2019-11-27 12:27:13
1:概念:    爬虫就是通过编写程序,模拟浏览器上网,然后让其去互联网上抓取数据的过程。 2:python爬虫与其他语言的比较:   (1)php爬虫弊端:多进程多线程支持的不好   (2)java:代码臃肿,重构成本较大   (3)C/c++:不明智的选择,C语言纯面向过程   (4)Python:学习成本低,较多模块,具有框架的支持,Scripy 3:分类(使用场景)   (1)通用爬虫:是搜素引擎中’抓取系统‘的重要组成部分(爬取的是整张页面)。将互联网上页面内容进行抓取下载到服务器本地     扩展:搜素引擎如何抓取互联网的网页     1.门户主动将自己的url提交给搜素引擎公司     2.搜索引擎公司会和DNS服务商进行合作     3.挂靠知名网站的友情链接   (2)聚焦爬虫:根据指定的需求去网上爬去指定的内容 4.robots.txt协议:指定的是门户中哪些数据可以供爬虫程序进行爬取和非爬取。(协议是防君子不防小人) 查看网站后台的robots协议: 5.反爬虫:   门户网站通过相应的策略和技术手段,防止爬虫程序进行网站数据的爬取。 6.反反爬虫:   爬虫程序通过相应的策略和技术手段,破解门户网站的反爬虫手段,从而爬取到相应的数据。 get请求,爬取数据实例: (1):简单的get请求:模拟浏览器发送get请求,在百度上爬取搜索明星名字页面 import

爬虫——GET请求和POST请求

谁说胖子不能爱 提交于 2019-11-27 12:27:04
urllib.parse.urlencode()和urllib.parse.unquote() 编码工作使用urllib.parse的urlencode()函数,帮我们将key:value这样的键值对转换成"key=value"这样的字符串,解码工作可以使用urllib的unquote()函数。 # python3.5控制台中测试结果 >>> import urllib >>> word = {"wd":"爬虫"} # 通过urllib.parse.urlencode()方法,将字典键值对按URL编码转换,从而能被wed服务器接受。 >>> urllib.parse.urlencode(word) 'wd=%E7%88%AC%E8%99%AB' # 通过urllib.parse.unquote()方法,把URL编码字符串,转换回原先的字符串。 >>> urllib.parse.unquote(word) 'wd=爬虫' 一般HTTP请求提交数据,需要编码成URL编码格式,然后做为URL的一部分,或者作为参数传到Request对象中。 GET方式 GET请求一般用于我们向服务器获取数据,比如说,我们用百度搜索 爬虫: https://www.baidu.com/s?wd=爬虫 (https://www.baidu.com/s?wd=%E7%88%AC%E8%99%AB)

php 使用fsockopen 发送http请求

Deadly 提交于 2019-11-27 10:43:39
需求背景 在公司开发这么一个需求,每天三次定时催付待客服催付状态的订单,设定每天15、16、17点三次执行job任务来给一批订单打电话催付,需要三个时间点都把待客服催付的订单拨打一遍电话,根据数据组统计,大概每天需要催付的订单数量在6000左右,对接第三方电话呼叫业务,拿到订单信息来呼叫。 测试状态 拿500个订单手动执行第一波测试,发现500个订单催付完毕需要30多分钟,那么6000个订单按照需求催付时间点是完全不够的,半小时500个,一小时最多1000个。 初步排查,是由于使用php curl请求导致每一次遍历的请求时间慢,由于curl请求最短的time时间耗时是1秒,那么一小时3600秒也是不够呼完这6000单。 解决方案 一、在遍历循环的时候把每次请求的量丢入消费系统(队列),然后根据开启多个消费者来消费这些(上线迫在眉睫,来不及) 二、有没有类似curl更快的方案,发现了fsockopen,按照使用方法配置完500个订单,遍历完成只需要18秒。 需求代码 /** * 通过订单信息组装呼叫信息 * @param array $order * @return array */ private function getCallInfoByOrder ($order = []) { $order_ext = OrderExt::model()->getPrimary($order

curl命令发送JSON数据

流过昼夜 提交于 2019-11-27 10:30:25
curl -H "Content-Type: application/json" -X POST -d "{\"abc\":123}" "https://httpbin.org/post" windows,-d参数的数据,需要使用双引号,json里的双引号使用反斜杠转义才可以 -X:指定http请求的方法。如果使用了-d,默认是使用POST,可以省略-X参数。 json数据放在一个文件里 curl -H "Content-Type: application/json" -X POST -d @test.json URL 来源: https://www.cnblogs.com/erinchen/p/11359637.html

博客从wordpress迁移到hexo

99封情书 提交于 2019-11-27 09:46:35
参考资料 https://www.jianshu.com/p/fd233d967e88 https://segmentfault.com/a/1190000005624504 https://github.com/theme-next/hexo-theme-next https://zhiho.github.io/2015/09/29/hexo-next/ http://theme-next.iissnan.com/getting-started.html https://blog.csdn.net/q2158798/article/details/82354154 https://www.jianshu.com/p/f068b8a36d84 基础环境 npm [root@wordpross ~]# npm -v 3.10.10 node [root@wordpross ~]# node -v v6.17.1 hexo [root@wordpross ~]# hexo version hexo-cli: 2.0.0 os: Linux 3.10.0-862.14.4.el7.x86_64 linux x64 http_parser: 2.8.0 node: 6.17.1 v8: 5.1.281.111 uv: 1.30.1 zlib: 1.2.7 ares: 1.10.1-DEV