cookie

jemterHTTP信息头管理器

流过昼夜 提交于 2020-02-04 22:15:22
使用HTTP信息头管理,可以帮助测试人员设定JMeter发送的HTTP请求头所包含的信息 1. HTTP Header Manager 属性管理器用于定制Sampler发出的HTTP请求的请求头的内容 2. HTTP Cookie Manager 属性管理器用于管理Test Plan运行时的所有Cookie。HTTP Cookie Manager可以自动储存服务器发送给客户端的所有Cookie,并在发送请求时附加上合适的Cookie. 同时,用户也可以在HTTP Cookie Manager中手工添加一些Cookie,这些被手工添加的Cookie会在发送请求时被自动附加到请求 如果在一个测试计划内有多个Cookie Manager ,Jmeter目前无法指定哪个被使用。所以,一个测试计划内最好只有一个cookie manager。并且,一个manager里的 cookie 并不能被其它manager所引用。 3. HTTP Request Defaults 该属性管理器用于设置其作用范围内的所有HTTP的默认值,可被设置的内容包括HTTP请求的host、端口、协议等。 a.一个测试计划中可以有多个Defaults组件,多个Defaults组件的默认值会叠加 b.两个default中都定义的"Server Name or IP",显示在发送请求时只能使用一个 来源: https:/

学习笔记:cookie、session、localStorage和sessionStorage的区别

孤人 提交于 2020-02-04 15:06:08
cookie 数据存放在浏览器 保存数据量小,不超过4kb 非私密,不安全,考虑到安全方面用session 保存的是字符串 session 保存在服务器,保存的方式类似一个表格,保存的数据可以在所有请求中共享 访问增多会占用服务器性能,考虑到减轻服务器性能方面用cookie 需要借助cookie才能正常工作,通过cookie的方式保存一个叫sessionid的东西 保存的是对象 session的工作原理(服务器如何区分不同的浏览器) 第一次请求时,服务器给浏览器分配一个标记 sessionid 浏览器以cookie的方式保存这个sesisonid 第二次浏览器请求时,以请求头的方式自动携带这个标记 服务器拿到标记后自动检索数据,获取内容 localStorage、sessionStorage和cookie的区别 cookie是不可或缺的,作用是与服务器进行交互,作为http规范的一部分存在,而localStorage、sessionStorage是为了在本地存储数据 cookie在浏览器和服务器之间来回传递,Storage不会自动把数据发送给服务器,仅在本地保存 存储大小不同:localStorage、sessionStorage5M或以上 数据有效期不同: sessionStorage: 当前浏览器窗口关闭前有效 localStorage: 始终有效 cookie:

Session和Cookie实现购物车

偶尔善良 提交于 2020-02-04 11:31:14
来自森大科技官方博客 http://www.cnsendblog.com/index.php/?p=342 GPS平台、网站建设、软件开发、系统运维,找森大网络科技! http://cnsendnet.taobao.com 使用Session和Cookie实现购物车的比较 购物车相当于现实中超市的购物车,不同的是一个是实体车,一个是虚拟车而已。用户可以在购物网站的不同页面之间跳转,以选购自己喜爱的商品,点击购买时,该商品就自动保存到你的购物车中,重复选购后,最后将选中的所有商品放在购物车中统一到付款台结账,这也是尽量让客户体验到现实生活中购物的感觉。服务器通过追踪每个用户的行动,以保证在结账时每件商品都物有其主。 购物车的功能包括以下几项: 把商品添加到购物车,即订购 删除购物车中已定购的商品 修改购物车中某一本图书的订购数量 清空购物车 显示购物车中商品清单及数量、价格 实现购物车的关键在于服务器识别每一个用户并维持与他们的联系。但是HTTP协议是一种“无状态(Stateless)”的协议,因而服务器不能记住是谁在购买商品,当把商品加入购物车时,服务器也不知道购物车里原先有些什么,使得用户在不同页面间跳转时购物车无法“随身携带”,这都给购物车的实现造成了一定的困难。 目前购物车的实现主要是通过cookie、session或结合数据库的方式。下面分析一下它们的机制及作用。

雅虎前端优化的35条军规

老子叫甜甜 提交于 2020-02-04 10:42:07
内容部分 1.尽量减少HTTP请求数   80%的终端用户响应时间都花在了前端上,其中大部分时间都在下载页面上的各种组件:图片,样式表,脚本,Flash等等。减少组件数必然能够减少页面提交的HTTP请求数。这是让页面更快的关键。   减少页面组件数的一种方式是简化页面设计。但有没有一种方法可以在构建复杂的页面同时加快响应时间呢?嗯,确实有鱼和熊掌兼得的办法。   合并文件 是通过把所有脚本放在一个文件中的方式来减少请求数的,当然,也可以合并所有的CSS。如果各个页面的脚本和样式不一样的话,合并文件就是一项比较麻烦的工作了,但把这个作为站点发布过程的一部分确实可以提高响应时间。   CSS Sprites 是减少图片请求数量的首选方式。把背景图片都整合到一张图片中,然后用CSS的 background-image 和 background-position 属性来定位要显示的部分。   图像映射 可以把多张图片合并成单张图片,总大小是一样的,但减少了请求数并加速了页面加载。图片映射只有在图像在页面中连续的时候才有用,比如导航条。给image map设置坐标的过程既无聊又容易出错,用image map来做导航也不容易,所以不推荐用这种方式。   行内图片(Base64编码) 用 data: URL模式 来把图片嵌入页面。这样会增加HTML文件的大小,把行内图片放在(缓存的

跨域——同源策略(译)

烂漫一生 提交于 2020-02-04 06:41:18
为什么需要跨域? 因为有同源策略。 同源策略 是一种非常重要的安全机制,约束(限制)一个源的文档或者脚本如何与另一个源的资源进行交互。有助于隔离恶意文档,减少可能的攻击。 源 如果两个URL具有相同的protocol,相同的port(如果有)以及相同的host,就说它们具有相同的源 如下表格是与如下URL对比的结果: http://store.company.com/dir/page.html : IE浏览器的例外 可信任区:如果两个域都处于高度可信任区(企业内部网),将不会有同源限制。 端口:IE在检查于时并不考虑port。下面两个URL被当做同源: https://company.com:81/index.html 和 https://company.com/index.html 改变源 虽然有一定限制,页面可以通过document.domain来改变自己源。可以通过脚本修改document.domain到自身当前的域或者当前域的超域。 例如,在 http://store.company.com/dir/other.html 运行如下脚本: document.domain = "company.com" 之后,这个页面就可以通过 http://company.com/dir/page.html 页面的同源检查。 但是,company.com不能够修改document

同源策略以及绕过此限制的方法

孤街浪徒 提交于 2020-02-04 06:36:00
同源策略 源:由协议【https、http】+域名【a.com】+端口【80、443】组成,(ie中略有不同),同源策略是浏览器的核心安全策略,目的是将来自不同源的资源进行隔离,并控制不同源资源间的通信,从而减少安全威胁,增强安全性。 跨域中的一些限制以及不限制内容如下: 不限制内容: 脚本文件 js 图片资源 样式资源css iframe展示其他的的资源 a链接访问其他资源 多媒体等资源 form表单提交 限制内容: 跨域的方法【get、post可以】 跨域请求头不可以添加自定义头部 本地文件系统读写 iframe可以访问iframe整体,不能访问内容 cookie的限制,使用CORS需要withCredentials=true才可以带上cookie ======================================================== 一、同源策略 1、何为同源? 所谓"同源"指的两个网页url的三个部分是相同的: http://www.example.com:80/dir/page.html 协议相同 域名相同 端口相同 2、同源策略 同源策略是Web应用程序安全模型中的一个重要概念,它由 Netscape 公司在1995年引入浏览器。该策略最初是为保护DOM的访问而设计的,Web浏览器允许第一个Web页面中包含的脚本访问第二个Web页面中的数据

Nginx 屏蔽WordPress垃圾评论

本小妞迷上赌 提交于 2020-02-04 04:43:16
前言 相信大部分用WordPress做博客/网站的用户都有这个问题,就是垃圾评论太尼玛多了, 不管是多么牛逼哄哄的大神级博客,还是毫不起眼无人问津的小白博客,都很难逃脱垃圾评论的骚扰,并且大部分都是一些英文的留言内容-。- 在之前,我一直用的WordPress自带的Akismet插件,有免费版的授权申请,并且效果还挺好的,大部分的垃圾评论都被拦截了,所以这个插件还是很值得推荐使用的。 但是Akismet虽然能够拦截垃圾评论,但是每当进入后台看到目前有多少条垃圾评论的时候,我会忍不住点击清空所有垃圾评论,这样每隔段时间就要清理,对于我这么懒得人来说还是一种折磨。 在这种情况下,我不得不再找其他办法来解决这个问题了。 禁ip 禁IP是最简单最快捷的办法了,对于长期只是用那么几个IP来发垃圾评论的来说是很有效的办法,但是,现在基本上没几个只是用固定IP来干这事的了 修改 .htaccess 文件,添加如下代码: Order Allow,Deny Deny from 112.121.33.212(填写要禁止的IP,一行一个) Deny from 112.121.33 (禁止某IP段) Allow from all 这样,当被禁止的IP访问网站时会出现如下提示信息: Forbidden You don’t have permission to access / on this server.

python的urllib2库详细使用说明

感情迁移 提交于 2020-02-04 04:21:08
一直以来技术群里会有新入行的同学提问关于urllib和urllib2以及cookielib相关的问题。所以我打算在这里总结一下,避免大家反复回答同样的问题浪费资源。 这篇属于教程类的文字,如果你已经非常了解urllib2和cookielib那么请忽略本篇。 首先从一段代码开始, #cookie import urllib2 import cookielib cookie = cookielib.CookieJar() opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie)) request = urllib2.Request(url='http://www.baidu.com/') request.add_header('User-Agent','Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1') response = opener.open(request) for item in cookie: print item.value 很多同学说,我可以直接在openr.open()里写url,为什么你要用request。其实我这么写就是为了整理一下一般使用urllib2构造请求的常用步骤。 初步,urllib2构造请求常用步骤(结合上面的代码): 1

使用keepalived+haproxy搭建高可用服务器

送分小仙女□ 提交于 2020-02-04 00:15:50
环境 HAProxy: 1.4.18 KeepAlived: 1.2.2 VIP: 192.168.1.99 M: 192.168.1.222 S: 192.168.1.189 架构图 192.168.1.99 ±----------VIP----------+ | | | | Master Backup 192.168.1.189 192.168.1.222 ±---------+ ±---------+ | HAProxy | | HAProxy | |keepalived| |keepalived| ±---------+ ±---------+ | v ±-------±--------+ | | | | | | v v v ±-----+ ±-----+ ±-----+ | WEB1 | | WEB2 | | WEB3 | ±-----+ ±-----+ ±-----+ 安装HAProxy 安装pcre yum install pcre wget http://haproxy.1wt.eu/download/1.4/src/haproxy-1.4.18.tar.gz global maxconn 20480 #默认最大连接数 log 127.0.0.1 local3 #[err warning info debug] chroot /var/haproxy