cookie

JSP九大内置对象的作用和用法总结?

陌路散爱 提交于 2020-02-18 08:03:25
JSP九大内置对象的作用和用法总结? 1、request对象javax.servlet.http.HttpServletRequest request对象代表了客户端的请求信息,主要用于接受通过HTTP协议传送到服务器的数据。(包括头信息、系统信息、请求方式以及请求参数等)。request对 象的作用域为一次请求。 当Request对象获取客户提交的汉字字符时,会出现乱码问题,必须进行特殊处理。首先,将获取的字符串用ISO-8859-1进行编码,并将编码存发岛一个字节数组中,然后再将这个数组转化为字符串对象如下 Request常用的方法:getParameter(String strTextName) 获取表单提交的信息. getProtocol() 获取客户使用的协议。 String strProtocol=request.getProtocol(); getServletPath() 获取客户提交信息的页面。String strServlet=request.getServletPath(); getMethod() 获取客户提交信息的方式 String strMethod=request.getMethod(); getHeader() 获取HTTP头文件中的accept,accept-encoding和Host的值,String strHeader=request

JSP九大内置对象的作用和用法总结?

萝らか妹 提交于 2020-02-18 08:02:53
JSP中一共预先定义了9个这样的对象,分别为:request、response、session、application、out、pagecontext、config、page、exception 1、request对象javax.servlet.http.HttpServletRequest request对象代表了客户端的请求信息,主要用于接受通过HTTP协议传送到服务器的数据。(包括头信息、系统信息、请求方式以及请求参数等)。request对 象的作用域为一次请求。 当Request对象获取客户提交的汉字字符时,会出现乱码问题,必须进行特殊处理。首先,将获取的字符串用ISO-8859-1进行编码,并将编码存发岛一个字节数组中,然后再将这个数组转化为字符串对象如下 Request常用的方法:getParameter(String strTextName) 获取表单提交的信息. getProtocol() 获取客户使用的协议。 String strProtocol=request.getProtocol(); getServletPath() 获取客户提交信息的页面。String strServlet=request.getServletPath(); getMethod() 获取客户提交信息的方式 String strMethod=request.getMethod();

jsp九大内置对象

你说的曾经没有我的故事 提交于 2020-02-18 08:02:40
JSP中一共预先定义了9个这样的对象,分别为:request、response、session、application、out、pagecontext、config、page、exception 1、request对象javax.servlet.http.HttpServletRequest request对象代表了客户端的请求信息,主要用于接受通过HTTP协议传送到服务器的数据。(包括头信息、系统信息、请求方式以及请求参数等)。request对 象的作用域为一次请求。 当Request对象获取客户提交的汉字字符时,会出现乱码问题,必须进行特殊处理。首先,将获取的字符串用ISO-8859-1进行编码,并将编码存发岛一个字节数组中,然后再将这个数组转化为字符串对象如下 Request常用的方法:getParameter(String strTextName) 获取表单提交的信息. getProtocol() 获取客户使用的协议。 String strProtocol=request.getProtocol(); getServletPath() 获取客户提交信息的页面。String strServlet=request.getServletPath(); getMethod() 获取客户提交信息的方式 String strMethod=request.getMethod();

《隔离十四天》系列 -第六天 -整理的十个高频HTTP面试题

笑着哭i 提交于 2020-02-18 02:09:18
前言 隔离第六天,依然还是健康的一天,没有任何病毒,但是好想出去浪啊,太阳这么大我为什么只能隔着窗子来享受。即使这样也要学习,毕竟面试一个接一个,还要找工作的问题呢。 好了言归正传,昨天收到了一个面试,然后又是一次惨不忍睹的面试,为什么惨不忍睹呢,因为问到了HTTP的一些问题,然后都不会,所以哪里有问题就补哪里。今天整理了一些HTTP的面试问题,给自己增加一些这方面的知识存储。 1、Session和cookie的区别? 答:cookie数据保存在客户端,session数据保存在服务器端。 session是一次会话 , cookie可以长期保存在客户端 ; session用来保存重要的信息 , cookie用来保存不重要的信息 ; cookie保存的是字符串 , session保存的是对象 ; 2、Session失效的方式? 答:关闭浏览器 ; 设置它的失效时间 ; 调用它的失效方法 , setmaxinativeinterval ; 3、什么是session? 答:Session是一次会话 , 随着会话的关闭而结束 ; Session四大跟踪技术的一种 , 是一种服务器端的机制 ; 主要用在整个请求过程中共享数据 ; 4、get与post请求的区别? 答:get重点在于从服务器获取数据,post是向服务器发送数据 get传输的数据是放在url中的,post的参数存在于body中

HTTP 协议详解

瘦欲@ 提交于 2020-02-18 00:41:06
HTTP 协议定义 协议是指计算机通信网络中两台计算机之间进行通信所必须共同遵守的规定或规则,超文本传输协议 (HTTP) 是一种通信协议,它允许将超文本标记语言 (HTML) 文档从 web 服务器传送到客户端的浏览器 网页是如何显示的 Request 与 Response 我们输入 URL 后,我们的浏览器给 Web 服务器发送一个 Request,Web 服务器接到 Request 后进行处理,生成响应的 Response,然后发送给浏览器,浏览器解析 Response 中的 HTML,这样我们就看到了网页 代理服务器 - 网络信息的中转站,功能如下: 1.提高访问速度,大多数的代理服务器都有缓存功能 2.突破限制,也就是翻墙 3.隐藏身份 b. 网页显示 浏览器需 发送多次 Request 1.当在浏览器输入 URL 时,浏览器发送一个 Request 取获取 URL 的html,服务器把 Response 发送回给浏览器 2.浏览器分析 Response 中的 HTML,发现其中引用了很多其他文件,如 图片、CSS文件、JS文件 3.浏览器会自动再次发送 Request 去获取图片、CSS、JS等 4.等所有文件都下载成功后,网页就被显示出来了 HTTP 的无状态 与 Connection:keep-alive 无状态是指协议对于事务处理没有记忆能力

Flask学习笔记09之session

送分小仙女□ 提交于 2020-02-17 23:05:22
session就是dict ,存放在内存中 当请求刚到来:flask读取cookie中session对应的值(网络请求中携带),将该值解密并反序列化成字典,放入内存以便视图函数使用。 视图函数: @app.route('/index') def ses(): session['name'] = 'admin' session['age'] = 456 del session['age'] return "session" 当请求结束时,flask会读取内存中字典的值,进行序列化+加密,写入到用户cookie中。 session的一些其它配置 SESSION_COOKIE_NAME = 'session' SESSION_COOKIE_DOMAIN = None SESSION_COOKIE_PATH = None SESSION_COOKIE_HTTPONLY = True SESSION_COOKIE_SECURE = False SESSION_REFRESH_EACH_REQUEST = True #session的过期时间 PERMANENT_SESSION_LIFETIME = timedelta(hours=1) settings.py from datetime import timedelta class Base(object): """共有的配置放在基类里面""

python爬取拉勾网---成功解决:'status': False, 'msg': '您操作太频繁,请稍后再访问', 'clientIp': '117.136.41.XX', 'state': 2

旧巷老猫 提交于 2020-02-17 22:43:56
初次用python写爬虫,听说拉勾网反爬机制最厉害,今天学完python语法就上 试着爬取java后端开发招聘情况,没想第一步一来就out !!! 错误代码示范: from urllib import request from urllib import parse url = 'https://www.lagou.com/jobs/positionAjax.json?needAddtionalResult=false' headers = { 'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36' , 'Referer' : 'https://www.lagou.com/jobs/list_python?labelWords=sug&fromSearch=true&suginput=py' } data = { 'first' : 'true' , 'pn' : 1, 'kd' : 'python' } content = request.Request ( url, headers = headers, data = parse.urlencode ( data ) .encode

web应用程序安全攻防---sql注入和xss跨站脚本攻击

久未见 提交于 2020-02-17 18:39:54
kali视频学习请看 http://www.cnblogs.com/lidong20179210/p/8909569.html 博文主要内容包括两种常见的web攻击 sql注入 XSS跨站脚本攻击 代码注入攻击 代码注入攻击 Web应用程序的输入验证不完善漏洞 执行由攻击者所注入的恶意指令和代码 敏感信息泄露、权限提升或对系统的未授权访问 多样化的代码注入攻击类型 SQL注入攻击:恶意读取、修改与操纵数据库; PHP注入或ASP注入攻击:植入和运行Webshell Shell注入攻击:恶意执行操作系统命令的; 其他多样化注入攻击: LDAP注入、邮件命令注入、 SSI SQL注入攻击 (SQL Injection) SQL注入攻击对Web应用程序的威胁,相当大部分Web应用程序使用后台数据库,动态产生内容 SQL注入攻击:利用Web应用程序数据层存在的输入验证不完善型安全漏洞实施的一类代码注入攻击技术。 SQL注入漏洞机制 用户输入没有被正确地过滤:转义字符(引号、反引号、双下划线、分号、 百分号) 没有进行严格类型检查:未判断输入是否预定类型 SQL注入攻击案例解析 inputusername = request.form("username") inputpasswd = request.form("passwd") set cn = Server.CreateObject(

容易忘记的

时光怂恿深爱的人放手 提交于 2020-02-17 10:59:40
localStorage 1.localStorage (1)setItem(key , value),保存或设置数据 如果key已经存在,则覆盖key对应的value 如果不存在则添加key与value    window.localStorage.setItem('name','xiao'); (2)getItem(key); 获取key对应的value。 如果key不存在则返回null   window.localStorage.getItem('name'); (3)key(index); 获取指定下标位置的key    window.localStorage.key(0); (4)length 获取localStorage一共有多少条数据 alert(window.localStorage.length); 配合key(index)方法可以实现遍历localStorage数据的方法 (5)clear(); 将同域名下的所有localStorage数据都清空 (6 ) removeItem('key') : 删除数据,通过key来删除相应的value 2.JS新API (1) document.querySelector("selector"); 选择器返回第一个匹配到的元素,如未匹配到返回null (2)document.querySelectorAll(

初级爬虫第三天

雨燕双飞 提交于 2020-02-17 10:24:40
主要内容: 付费IP的使用方式 Auth认证 cookie登录验证 requests模块 一、付费IP使用方式: 1.1 无论是免费IP还是付费IP,在使用之前,都需要测试一下,如果好使,再去使用IP爬取数据。 1.2 IP池:列表套字典 eg:[{"https": "IP1:端口1"}, {"http": "IP2: 端口2"}, {"https": "IP3: 端口3"}] 1.3 遍历IP池,利用遍历出来的IP创建IP处理器,再利用处理创建发送网络请求的opener对象 1.4 opener.open()中有一个参数timeout=x,即:x秒之后如果程序还没有反应,就算做超时,报超时,x默认为30 1.5 利用异常处理IP值不好用的报错或者超时 代码: 1 import urllib.request 2 3 爬取百度首页"https://www.baidu.com/" 4 def proxy_user(): 5 #1.目标网页URL 6 url = "https://www.baidu.com/" 7 #2. User-Agent 8 user_agent = ["Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.121