cookie

cookie插件-cookie

寵の児 提交于 2020-01-03 12:50:35
使用cookie插件后,可以很方便地通过cookie对象保存、读取、删除用户的信息,还能通过cookie插件保存用户的浏览记录,它的调用格式为:保存:$.cookie(key,value),读取:$.cookie(key),删除:$.cookie(key,null)。 其中参数key为保存cookie对象的名称,value为名称对应的cookie值。 当点击“设置”按钮时,如果是“否保存用户名”的复选框为选中状态时,则使用cookie对象保存用户名,否则,删除保存的cookie用户名,如下面代码所示所示: <body> <div id="divtest"> <div class="title"> <span class="fl">cookie插件</span> <span class="fr"> <input id="btnSet" type="button" value="设置" /> </span> </div> <div class="content"> <span class="fl">用户名:</span><br /> <input id="username" name="username" type="text" /><br /> <input id="chksave" type="checkbox" />是否保存用户名 </div> </div> <script

Jquery 插件cookie

对着背影说爱祢 提交于 2020-01-03 12:50:23
一个轻量级的cookie 插件,可以读取、写入、删除 cookie。 jquery.cookie.js 的配置 首先包含jQuery的库文件,在后面包含 jquery.cookie.js 的库文件。 <script type="text/javascript" src="js/jquery-1.6.2.min.js"></script> <script type="text/javascript" src="js/jquery.cookie.js"></script> 使用方法 1.新添加一个会话 cookie: $.cookie('the_cookie', 'the_value'); 注:当没有指明 cookie有效时间时,所创建的cookie有效期默认到用户关闭浏览器为止,所以被称为 “会话cookie(session cookie)”。 2.创建一个cookie并设置有效时间为 7天: $.cookie('the_cookie', 'the_value', { expires: 7 }); 注:当指明了cookie有效时间时,所创建的cookie被称为“持久 cookie (persistent cookie)”。 3.创建一个cookie并设置 cookie的有效路径: $.cookie('the_cookie', 'the_value', { expires: 7,

cookie插件——cookie

蹲街弑〆低调 提交于 2020-01-03 12:50:09
使用cookie插件后,可以很方便地通过cookie对象保存、读取、删除用户的信息,还能通过cookie插件保存用户的浏览记录,它的调用格式为: 保存: $.cookie(key,value) ;读取: $.cookie(key) ,删除: $.cookie(key,null) 其中参数key为保存cookie对象的名称,value为名称对应的cookie值。 例如,当点击“设置”按钮时,如果是“否保存用户名”的复选框为选中状态时,则使用cookie对象保存用户名,否则,删除保存的cookie用户名,如下图所示: 在浏览器中显示的效果: 从图中可以看出,由于在点击“设置”按钮时,选择了保存用户名,因此,输入框中的值被cookie保存,下次打开浏览器时,直接获取并显示保存的cookie值。 <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"> <html xmlns="http://www.w3.org/1999/xhtml"> <head> <title>cookie插件</title> <link href="style.css" rel="stylesheet" type="text/css

讲讲session是怎么工作的,session的用法?

被刻印的时光 ゝ 提交于 2020-01-03 09:09:19
6.session的用法 到现在为止,我们学会了一次单独的请求和响应之间传递参数。但是如何跨越几次请求响应之间传递参数呢?比如我以马克的身份登录,这是 一次请求响应。之后买书又是一次请求响应。如何买书的时候还记得买书的人是马克,而不是张三呢?马克这个参数存在哪呢?这是跨越两次访问。Sun公司为我 们提供了HttpSession这个接口。HttpSession session = request.getSession();通过这句话,你可以得到一个与你的浏览器绑定的session对象,存在Tomcat里。这 个session对象只认你这个浏览器,之后只要是你这个浏览器发出的请求,无论跨越多少次请求响应,这个session对象就对它开放,其它浏览器不能 访问。通过session.setAttribute()可以往session里面存值,session.getAttribute可以取值。问题是 session是如何识别你的浏览器呢?初学者可忽略:靠Cookie或者URL改写:如果浏览器支持Cookie,则使用Cookie;如果浏览器不支持Cookie或者Cookie功能被关闭,则自动使用URL改写方法。拿cookie来说(通常客户很少见关闭cookie,即使你关了,我也可以发现,之后提醒你打开或编程序重写URL),服务器往客户端写东西时,cookie会带上sessionid

爬虫模拟登陆

主宰稳场 提交于 2020-01-03 06:31:03
package http.login; import java.io.BufferedReader; import java.io.InputStreamReader; import java.util.List; import org.apache.http.Header; import org.apache.http.HttpEntity; import org.apache.http.HttpResponse; import org.apache.http.client.CookieStore; import org.apache.http.client.methods.HttpGet; import org.apache.http.client.methods.HttpPost; import org.apache.http.client.protocol.ClientContext; import org.apache.http.cookie.Cookie; import org.apache.http.entity.StringEntity; import org.apache.http.impl.client.BasicCookieStore; import org.apache.http.impl.client.DefaultHttpClient; import

模拟登陆爬虫+验证码爬虫

穿精又带淫゛_ 提交于 2020-01-03 06:30:44
啊,摸索了半天,总算有点头绪了,由于对网页结构的不清晰,被折磨了好久。。。 最近就专门研究这个爬虫问题: 1.简单单页网页的爬取 2.翻页网页的爬取(商品,新闻类啊) 3.需要登陆网页的爬取 4.需要登陆加验证的网页爬取 5.scrapy 的框架问题 6.beautifulSoup、requests 7.cookeis、表单数据的查看 以上数据爬取之后,可以进行数据挖掘。 为防止网站被恶意访问,需要设置验证码登录,避免非人类的访问,Python爬虫实现验证码登录的原理则是先到登录页面将生成的验证码保存到本地,然后人为输入,包装后再POST给服务器。 此过程中涉及到了Cookie: “Cookie”是小量信息,由网络服务器发送出来以存储在网络浏览器上,从而下次这位独一无二的访客又回到该网络服务器时,可从该浏览器读回此信息。这是很有用的,让浏览器记住这位访客的特定信息,如上次访问的位置、花费的时间或用户首选项(如样式表)。Cookie 是个存储在浏览器目录的文本文件,当浏览器运行时,存储在 RAM 中。一旦你从该网站或网络服务器退出,Cookie 也可存储在计算机的硬驱上。当访客结束其浏览器对话时,即终止的所有 Cookie。(百度百科) 其实Cookie保存在本地主机上,避免用户重复输入用户名和密码,在连接服务器的时候将访问连接和Cookie组装起来POST给服务器

python学习(十八)爬虫中加入cookie

*爱你&永不变心* 提交于 2020-01-03 04:24:53
转载自: 原文链接 前几篇文章介绍了urllib库基本使用和爬虫的简单应用,本文介绍如何通过 post 信息给网站,保存登陆后 cookie ,并用于请求有 权限的操作。保存cookie需要用到cookiejar类,可以输出cookie信息查看下 123456789101112131415 import http.cookiejarimport urllib.request#声明一个CookieJar对象实例来保存cookiecookie = http.cookiejar.CookieJar()#HTTPCookieProcessor对象来创建cookie处理器handler = urllib.request.HTTPCookieProcessor(cookie)#通过handler来构建openeropener = urllib.request.build_opner(handler)#通过opner访问网址response = opner.open('http://www.baidu.com')#访问cookie中的数据for item in cookie: print('Name = '+ item.name) print('Value = '+ item.value) 1 通过http.cookiejar.CookieJar()创建一个cookiejar对象

使用xxl-sso实现单点登录

房东的猫 提交于 2020-01-03 03:31:39
XXL-SSO 是一个分布式单点登录框架。只需要登录一次就可以访问所有相互信任的应用系统。 拥有"轻量级、分布式、跨域、Cookie+Token均支持、Web+APP均支持"等特性。 以下是它的 github地址 以及 文档地址 。 话不多说,先将该项目的代码从github上clone下来。 git clone https://github.com/xuxueli/xxl-sso.git 代码整体结构如下 如图中所示,xxl-sso-core是整个项目的核心,是由它来实现整个单点登录的过程,XxlSsoWebFilter,代码如下: package com . xxl . sso . core . filter ; import com . xxl . sso . core . conf . Conf ; import com . xxl . sso . core . entity . ReturnT ; import com . xxl . sso . core . login . SsoTokenLoginHelper ; import com . xxl . sso . core . path . impl . AntPathMatcher ; import com . xxl . sso . core . user . XxlSsoUser ; import org .

Python网络爬虫之cookie处理、验证码识别、代理ip、基于线程池的数据爬去

一世执手 提交于 2020-01-03 02:45:42
本文概要 session处理cookie proxies参数设置请求代理ip 基于线程池的数据爬取 引入 有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使用之前requests模块常规操作时,往往达不到我们想要的目的,例如: #!/usr/bin/env python # -*- coding:utf-8 -*- import requests if __name__ == "__main__": #张三人人网个人信息页面的url url = 'http://www.renren.com/289676607/profile' #伪装UA headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', } #发送请求,获取响应对象 response = requests.get(url=url,headers=headers) #将响应内容写入文件 with open('./renren.html','w',encoding='utf-8') as fp: fp.write(response.text)

Python网络爬虫之requests模块

你。 提交于 2020-01-03 02:45:23
今日内容 session处理cookie proxies参数设置请求代理ip 基于线程池的数据爬取 知识点回顾 xpath的解析流程 bs4的解析流程 常用xpath表达式 常用bs4解析方法 引入 有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使用之前requests模块常规操作时,往往达不到我们想要的目的,例如: #!/usr/bin/env python # -*- coding:utf-8 -*- import requests if __name__ == "__main__": #张三人人网个人信息页面的url url = 'http://www.renren.com/289676607/profile' #伪装UA headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', } #发送请求,获取响应对象 response = requests.get(url=url,headers=headers) #将响应内容写入文件 with open('./renren.html','w'