response

11.6_Filter

时光怂恿深爱的人放手 提交于 2020-04-04 11:32:25
一、什么是Filter?   过滤器 , 其实就是对客户端发出来的请求进行过滤。 浏览器发出, 然后服务器派servlet处理。 在中间就可以过滤, 其实过滤器起到的是拦截的作用。 二、作用   1. 对一些敏感词汇进行过滤   2. 统一设置编码   3. 自动登录 三、如何使用Filter   1. 定义一个类, 实现Filter     public class FilterDemo implements Filter {       public void destroy() {     }     public void doFilter(ServletRequest request, ServletResponse response, FilterChain chain) throws IOException, ServletException {       System.out.println("来到过虑器了。。。");       chain.doFilter(request, response);       }     public void init(FilterConfig fConfig) throws ServletException {     }   }   2. 注册过滤器     在web.xml里面注册,注册的手法与servlet基本一样。

【2017-05-21】WebForm内置对象:Session、Cookie,登录和状态保持

谁说我不能喝 提交于 2020-04-03 23:41:30
1、Request -获取请求对象 string s =Request["key"]; 2、Response - 响应请求对象 Response.Redirect("url"); 服务端重定向,在当前页面跳转。 Response.Write("string"); 将此字符串输出到页面的最顶端,里面可以放Js。 3、Session 存贮在服务端,占用服务器内存 很好用,速度很快 不要滥用,容易溢出 生命周期:20分钟,每一次新的请求都会刷新这个时间 浏览器一旦关闭,那么会断开此条Session的连接 Session里面能存储Object类型 (1)、传值: string s=TextBox1.Text; Session["aaa"]=s; Response.Redirect("url"); (2)、取值: Label1.Text= Session["aaa"].Tostring(); (3)、 如果报错:未将对象引用设置到对象的实例。 存贮在服务端,占用服务器内存 。浏览器一旦关闭,那么会断开此条Session的连接 处理办法:在取值时进行判断 if(Session["aaa"]!=null) { Label1.Text= Session["aaa"].Tostring(); } (4)、如果传一个对象的话: 赋值:Users u= new Users(); u.UserName=

【DRF框架】序列化组件——ModelSerializer

生来就可爱ヽ(ⅴ<●) 提交于 2020-04-03 04:33:35
ModelSerializer   1.ModelSerializer类似于ModelForm   2.根据模型自动生成一组字段   3.自带实现了.update()以及.create()方法 ModelSerializer的使用 1.创建原信息 class Meta: 2.指定序列化的模型类 model = "XX" 3.序列化的字段列表 fields = ["xxx"]  4.序列化不包含指定字段的列表 exclude = ["xxx"]  5.找到外键关系,并将所有的外键都变为read_only=true 6.给指定的字段添加参数属性 extra_kwargs = {} ModelSerializer的方法字段 dserializers.SerializerMethodField() 一般用于正序列化 1.自定义字段方法 get_字段 2.返回值是 SerializerMethodField()的返回值 ''' 基于ModelSerializer的序列化器 ''' from rest_framework import serializers from SerDemo.models import Book class BookSerializer(serializers.ModelSerializer): # SerializerMethodField() 方法字段

Requests请求方式:Get与Post

允我心安 提交于 2020-04-03 04:15:09
为什么要学习requests,而不是urllib? 1.requests的底层实现就是urllib。 2.requests在python2和python3中通用,方法完全一样。 3.requests简单易用。 4.requests能够自动帮我们解压(gzip压缩等)网页内容。 在写爬虫的过程中,一定要养成一个好习惯,学会模拟浏览器的User-Agent。 如果不去模拟的话,以Python作为User-Agent去访问,会受到条件的限制。 import requests #为什么请求访问要带上headers,目的是模拟欺骗浏览器,获取完整的内容 headers={ "User-Agent":"Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.26 Safari/537.36 Core/1.63.6814.400 QQBrowser/10.3.3005.400" } response=requests.get("http://www.baidu.com",headers=headers) #status_code,获取响应码的值 a=response.status_code #获取响应报头 b=response.headers #显示出访问的url c

过滤器和拦截器

瘦欲@ 提交于 2020-04-02 21:56:53
参考文章:https://blog.csdn.net/zxd1435513775/article/details/80556034 (1)过滤器(Filter):它依赖于servlet容器。在实现上,基于函数回调,它可以对几乎所有请求进行过滤,但是缺点是一个过滤器实例只能在容器初始化时调用一次。使用过滤器的目的,是用来做一些过滤操作,获取我们想要获取的数据,比如:在Javaweb中,对传入的request、response提前过滤掉一些信息,或者提前设置一些参数,然后再传入servlet或者Controller进行业务逻辑操作。通常用的场景是:在过滤器中修改字符编码(CharacterEncodingFilter)、在过滤器中修改HttpServletRequest的一些参数(XSSFilter(自定义过滤器)),如:过滤低俗文字、危险字符等。 2)拦截器(Interceptor):它依赖于web框架,在SpringMVC中就是依赖于SpringMVC框架。在实现上,基于Java的反射机制,属于面向切面编程(AOP)的一种运用,就是在service或者一个方法前,调用一个方法,或者在方法后,调用一个方法,比如动态代理就是拦截器的简单实现,在调用方法前打印出字符串(或者做其它业务逻辑的操作),也可以在调用方法后打印出字符串,甚至在抛出异常的时候做业务逻辑的操作

Python之爬虫-段子网

余生颓废 提交于 2020-04-02 14:58:07
Python之爬虫-段子网 https://ishuo.cn #!/usr/bin/env python # -*- coding:utf-8 -*- import re import requests response = requests.get('https://ishuo.cn') data = response.text print(data) r = re.findall('<div class="content">(.*?)</div>',data) for i in r: print(i) http://duanziwang.com/ #!/usr/bin/env python # -*- coding:utf-8 -*- import re import requests response =requests.get('http://duanziwang.com/') data = response.text result = re.findall('<a href="http://duanziwang.com/.*?.html">(.*?)</a>',data) for i in result: print(i) 来源: https://www.cnblogs.com/nickchen121/p/10825887.html

Request和Response详解

守給你的承諾、 提交于 2020-04-01 07:57:23
转自: http://zhidao.baidu.com/link?url=8BI0cjlcFdBSJKHTZlpo874eqtbTJoZfrh3miQgM_05RvSER8skPiBc1wSPZtXT8OGGCHfVXFAzAosa6E5HBl_ 内置对象 request:请求对象 request.getParameter("名字") 获得客户端输入的信息*************** request.getParameterValues("名字") 获得客户端输入的一组信息 request.getRequestDispatcher("url").forward(request,response): 转到url页面 response:响应对象 response.sednRedirect("url"):转到url指定的页面 转自: http://blog.csdn.net/a859522265/article/details/7259115 web服务器收到客户端的HTTP请求,会针对每一次请求分别创建一个用于代表请求的request对象和代表响应的response对象。 1.要得到客户机提交过来的数据,只需要找request对象就行了。 2、要向客户机输出数据,只需要找response对象就行了。 一、response对象 1.1向客户端发送数据,以字节为单位(一定要先设置编码方式

基于python第三方库,图灵机器人,百度语音识别API的聊天机器人

生来就可爱ヽ(ⅴ<●) 提交于 2020-03-31 21:39:41
1.python库准备 import wave import pyaudio 录制音频 import requests 获取百度API的token用 import os import base64 import json import win32com.client 用于读文字 import urllib.request import string import random 注意 win32com 安装我 pip 安装了好多次,使用 python -m pip install pypiwin32 ,其余模块直接 pip 安装,使用清华源 https://pypi.tuna.tsinghua.edu.cn/simple 比较快! 2.需要申请图灵账号以及创建机器人获取他的 apikey 以及 userId 3.生成音频文件名,(也可以不用这个,可以写死文件名直接覆盖)这样可以保存音频文件。 def file_name(): code_str = string.ascii_letters + string.digits ran_num = ''.join(random.sample(code_str, 6)) r_path = ran_num + '.wav' return r_path 4.朗读读图灵返回的内容 def read(content): speaker =

Python|爬取书籍信息

怎甘沉沦 提交于 2020-03-31 14:24:56
1.前言 爬虫可以有助于快速地从网页中获取想要的信息,从而大大减少工作量今天小编就用实际案例为大家讲解如何爬取网站的一些书籍信息。 2.环境配置 Pycharm,python3,爬虫库request,re模块。 3.爬取目标 爬虫的一般思路:分析目标网页,确定urlà发送请求,获取响应à解析数据à保存数据。 http://www.wsgph.com/so.asp?key=%C9%EE%B6%C8%D1%A7%CF%B0&imgbtn.x=38&imgbtn.y=18 第一步:分析目标网页,整理思路。 分析目标:要爬取的目标是所有的书籍信息,但书籍信息不只是存在当前网页,需要找到所有有书籍信息的网页,并依次去爬取。 找到头部信息:通过浏览器的检查获取到需要的头部信息。 整理思路:先在当前网页找到所有的存放书籍信息的网页,依次爬取网页,再从中获得每本书的具体网页,最后爬取到需要的信息。 具体步骤如下: ​ ​ ​ ​ ​ ​ 第二步,发送请求,获取响应的数据。 获取数据:直接通过request获取,就不再多加阐述,只需要多多注重头部信息。 ​ 第三步:解析数据。 转换数据:当获取到网页的text的数据时,会发现乱码,这时需要将它的格式转换为‘gbk’。 截取数据:通过re模块,来截取数据,re模块是python自带的模块,具体的用法,可以上python官网查看。 ​ 第四步:保存数据。

深入浅出让你理解跨域与SSO单点登录原理与技术

Deadly 提交于 2020-03-31 11:12:08
一:SSO体系结构 SSO ​ SSO英文全称Single Sign On,单点登录。SSO是在多个应用系统中,用户只需要登录一次就可以访问所有相互信任的应用系统。它包括可以将这次主要的登录映射到其他应用中用于同一个用户的登录的机制。它是目前比较流行的企业业务整合的解决方案之一。 体系结构 ​ 当用户第一次访问应用系统1的时候,因为还没有登录,会被引导到认证系统中进行登录;根据用户提供的登录信息,认证系统进行身份校验,如果通过校验,应该返回给用户一个认证的凭据--token;用户再访问别的应用的时候就会将这个token带上,作为自己认证的凭据,应用系统接受到请求之后会把token送到认证系统进行校验,检查token的合法性。如果通过校验,用户就可以在不用再次登录的情况下访问应用系统2和应用系统3了 。 Token(令牌) token的意思是“令牌”,是服务端生成的一串字符串,作为客户端进行请求的一个标识。 当用户第一次登录后,服务器生成一个token并将此token返回给客户端,客户端收到token后把它存储起来,可以放在cookie或者Local Storage(本地存储)里。 以后客户端只需带上这个token前来请求数据即可,无需再次带上用户名和密码。 简单token的组成;uid(用户唯一的身份标识)、time(当前时间的时间戳)、sign(签名