response

Can i test a website is responsive design

回眸只為那壹抹淺笑 提交于 2020-01-07 05:23:08
问题 As the title says: is there a method to test a website is responsive use node or other script on background. there is many web sites provide screenshot, but i want to use script to check it. now i want to use WebView to show website on phone so i want to know if the website is responsive, if it is responsive , i will show it, or not there is method to save all website's host name, and when there is another request, i will check data table 回答1: The term responsive generally just indicates that

flask源码分析

浪子不回头ぞ 提交于 2020-01-07 03:42:39
一、flask源码分析 # 创建一个flask项目 from flask import Flask app = Flask(__name__) if __name__ == '__main__': # app.__call__() app.run() 1.查看app.run()中run方法 首先进入app.run()方法,进入之后你会发现最核心的一句话, 导入了werkzeug工具包,启动了一个socket,其中self是app有Flask类创建的对象,host是ip地址,port是端口号 from werkzeug.serving import run_simple # app.run调用werkzeug.seriving的run-simple run_simple(host, port, self, **options) 2.查看__call__方法 在进入Flask类中的__call__,发现的是里面有一个是wssgi_app方法将执行的结果返回回来,其中参数意思为: self是app由flask创建的实例对象 environ:请求相关的参数也就是前端页面向后端发送请求携带过来的所有参数信息 start_response: 是请求响应相关的(response) def __call__(self, environ, start_response): """The WSGI

增量式爬虫

落爺英雄遲暮 提交于 2020-01-07 01:07:13
我们今天来说一个增量式爬虫 相信有很多的同学不太理解为什么要用增量式爬虫 增量式爬虫有什么样的作用 今天我就来为大家絮叨絮叨 增量式爬虫的意义是为了精准的拿到你想要的数据,好比说我们现在需要爬取某某网站,它的数据呢是实时更新的,我能只想要没有爬取过的数据怎么办呢,我们需要第3方库来帮助我们,我个人用的是redis数据库,我们可以对url进行比对,也可以对数据进行比对,这个根据需求来定制。 首先创建scrapy框架: scrapy startproject *** cd *** scrapy genspider *** baidu.com 这样我们的scrapy框架就创建完了,我们现在步入正轨,这个例子是以字段内容为比较对象的小例子 import scrapy from ..items import LxhItem from redis import Redis import hashlib class XhSpider(scrapy.Spider): name = 'xh' # allowed_domains = ['baidu.com'] start_urls = ['http://xiaohua.zol.com.cn/zhengren/'] #定义要爬取的url conn = Redis() #实例化redis def parse(self, response): li

轮播图的实现

≯℡__Kan透↙ 提交于 2020-01-06 23:33:32
目录 轮播图: 前端: 配置 banner.vue样式: 后端: views.py: urls.py路由: models.py: serializers.py: 轮播图: 前端: 配置 前端项目目录下的终端: cnpm install vue-cookies cnpm install axios cnpm install element-ui cnpm install jquery cnpm install bootstrap@3 配置jquery:vue.config.js: const webpack = require("webpack"); module.exports = { configureWebpack: { plugins: [ new webpack.ProvidePlugin({ $: "jquery", jQuery: "jquery", "window.jQuery": "jquery", "window.$": "jquery", Popper: ["popper.js", "default"] }) ] } }; 在main.vue文件 配置: import axios from 'axios' Vue.prototype.$axios = axios; import cookies from 'vue-cookies' Vue.prototype.

Vue--axios

天涯浪子 提交于 2020-01-06 22:38:05
前戏 如果你是使用vscode软件进行开发前端项目,进行ajax调试的时候,建议安装liveServer插件。这样我们打开一个文件的时候,会以服务的方式打开。 vue中常用的ajax库有两个,一个是vue-resource,这个是在vue1.x中广泛使用的插件。还有一个是axios,在vue2.x中,官方强烈推荐的第三方ajax请求库。 vue-resource 参考文档:https://github.com/pagekit/vue-resource/blob/develop/docs/http.md 在Vue的生命周期中,我们知道created()是最早可以获取到data数据的,所以我们一般都是在created()里写ajax请求 因为vue-resource是第三方库,所以我们需要先进行安装,才能使用 npm install vue-resource 创建一个json文件,假设我的叫name.json [ {"name":"张三","age":18}, {"name":"李四","age":66} ] 有json文件了,我们使用vue-resource请求数据 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device

flask中的response对象

家住魔仙堡 提交于 2020-01-06 21:50:03
response对象,即响应对象。响应数据为视图函数return返回的结果。 其中,结果的类型有以下几种: 1.字符串类型 对于字符串类型,系统自动将其封装为response对象。 例: @fls . route ( "/" ) def index ( ) : return "首页" 视图函数index返回一个字符串。结果为: 2. 自定义响应对象 返回自定义的response响应对象。 例: @fls . route ( "/news/" ) def news ( ) : response_obj = make_response ( "新闻" ) response_obj . headers [ "name" ] = "kalath" return response_obj 结果为: 响应头中name字段的值已经更改为我们设置的值。 3. JSON数据 返回结果为JSON数据。例如: @fls . route ( "/teams/" ) def teams ( ) : teams = { "Germany" : [ "Bayern Munich" , "Leipzig" , "M.Gladbach" , "Dortmund" , "Schalke 04" ] , "England" : [ "Liverpool" , "Leicester" , "Manchester City"

pageContext和局部变量的区别?

梦想的初衷 提交于 2020-01-06 20:31:09
4) pageContext: 保存的键值仅在本个页面有效。在未来学习Taglib过程当中,将发挥巨大作用。类变量被所有用户(浏览器)只在这一页时共享(例如例1.1),而pageContext 被某个用户(浏览器)只在这一页时才有。pageContext范围比类变量小,和局部变量是一样的,但局部变量可以在非service的方法中用,而 pageContext只能在service方法中用。 见例子2.4 5)局部变量:转化成servlet后的某个方法中的局部变量。 6)类变量:转化成servlet后的类变量。 例 2.3 <%@ page contentType="text/html; charset=GBK" %> <html> <body> <% request.setAttribute("rName","rmark-to-win"); application.setAttribute("aName","amark-to-win"); session.setAttribute("sName","smark-to-win"); request.getRequestDispatcher("/Cookie/AddCookie").forward(request,response); /*如用下面的response,request就取不出来了。 结果就变成如下了 null amark

requests

☆樱花仙子☆ 提交于 2020-01-06 18:22:00
目录 1.安装 2.引入 3.请求方式 3.1 GET请求 3.1.1 基本请求 3.1.2 GET请求的主要参数 3.2 POST请求 3.2.1 使用POST请求模拟登陆 4.响应 4.1 响应参数 5.其他 requests官方中文文档: https://requests.readthedocs.io/zh_CN/latest/ 1.安装 pip install requests 2.引入 import requests # 发送请求获取响应内容 response = request.get('http://www.baidu.com') 3.请求方式 3.1 GET请求 HTTP默认的请求方法就是GET 没有请求体 数据必须在1K之内 GET请求数据会暴露在浏览器的地址栏中 GET请求常用的操作: 在浏览器的地址栏中直接给出URL,那么就一定是GET请求 点击页面上的超链接也一定是GET请求 提交表单时,表单默认使用GET请求,但可以设置为POST 3.1.1 基本请求 import requests # 发送请求获取响应内容 response = request.get('http://www.baidu.com') print(response.text) 3.1.2 GET请求的主要参数 url 请求资源的路径 headers User-Agent

SpringBoot整合Shiro 涉及跨域和@Cacheable缓存/@Transactional事务注解失效问题(五)

允我心安 提交于 2020-01-06 16:58:20
1. 跨域(多出现在前后端分离项目中)   (1) 跨域介绍可参考 : 跨域(CORS)   (2) SpringBoot中解决跨域方式有:     A. 使用@CrossOrigin注解;     B. 实现Filter类,重写doFilter方法 package com.ruhuanxingyun.config; import cn.hutool.core.util.StrUtil; import org.springframework.context.annotation.Configuration; import org.springframework.http.HttpHeaders; import org.springframework.http.HttpMethod; import org.springframework.http.HttpStatus; import javax.servlet.*; import javax.servlet.annotation.WebFilter; import javax.servlet.http.HttpServletRequest; import javax.servlet.http.HttpServletResponse; import java.io.IOException; @WebFilter(filterName

04 doubanTop50

风流意气都作罢 提交于 2020-01-06 16:34:43
''' 1.爬取豆瓣top250电影信息 - 第一页: https://movie.douban.com/top250?start=0&filter= - 第二页: https://movie.douban.com/top250?start=25&filter= - 第三页: https://movie.douban.com/top250?start=50&filter= - 第十页: https://movie.douban.com/top250?start=225&filter= - 爬取步骤: - 1) 获取所有电影的主页url - 2) 往每一个主页发送请求,获取响应数据 - 3) 解析并提取想要的数据(获取每一部电影的class为item的div) - 4) 根据每一部电影的div提取电影的: 详情页url、电影名字、电影评分、评价人数 ''' import requests import re headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.88 Safari/537.36' } # 爬虫三部曲 # 1.发送请求 def get_html(url): response =