response

Django发送邮件,注册时邮件获取验证码

末鹿安然 提交于 2020-02-03 02:22:10
setting.py里面的配置 # 邮件 EMAIL_HOST = 'smtp.163.com' # 设置端口号,为数字 EMAIL_PORT = 25 #设置发件人邮箱 EMAIL_HOST_USER = 'kongfuzi_k@163.com' # 设置发件人 授权码 EMAIL_HOST_PASSWORD = '123456789hhh' # 设置是否启用安全链接 EMAIL_USER_TLS = True # EMAIL_USER_TLS = False DEFAULT_FROM_EMAIL = EMAIL_HOST_USER # redis 的配置文件 CACHES = { "default" : { "BACKEND" : "django_redis.cache.RedisCache" , "LOCATION" : "redis://127.0.0.1:6379" , "OPTIONS" : { "CLIENT_CLASS" : "django_redis.client.DefaultClient" , "CONNECTION_POOL_KWARGS" : { "max_connections" : 100 } # "PASSWORD": "密码", } } } 这里是views.py里面的代码 from django . core . cache import

asp.net webapi 跨域问题解决 No 'Access-Control-Allow-Origin' header i

老子叫甜甜 提交于 2020-02-03 01:10:12
一、基础解决方案(基础配置) 通过Ajax调用web api路径时报错: No 'Access-Control-Allow-Origin' header is present on the requested resource. C#自带的web api并不能支持跨域访问,如果需要,可以更改配置来实现。 1、更改Web.config文件,加上如下代码 <httpProtocol> <customHeaders> <add name="Access-Control-Allow-Origin" value="*"/> <add name="Access-Control-Allow-Headers" value="Content-Type,Token" /> <add name="Access-Control-Allow-Methods" value="GET, POST, PUT, DELETE, OPTIONS" /> </customHeaders> </httpProtocol> 2、然后需要配置Global.asax文件 插入如下代码: /// <summary> /// 配置Ajax跨域访问 /// </summary> /// <param name="sender"></param> /// <param name="e"></param> protected void

Python爬虫学习(三)使用Scrapy库

不羁的心 提交于 2020-02-02 23:55:57
(一)Scrapy库概述   1,安装:pip install scrapy失败;       运行D:\Python\Python36\python.exe -m pip install --upgrade pip命令升级pip命令失败;       修改Python36文件的权限: https://www.cnblogs.com/liaojiafa/p/5100550.html       安装:D:\Python\Python36\python.exe -m pip install wheel       安装:D:\Python\Python36\python.exe -m pip install scrapy   2,框架概述:               入口:SPIDERS;出口:ITEM PIPELINES;用户编写SPIDERS(URL),ITEM PIPELINES(对数据处理)     ENGINE:控制所有模块之间的数据流,根据条件触发事件,不允许用户修改,代码已实现     DOWNLOADER:根据请求下载网页,功能单一,不允许用户修改,代码已实现     SCHEDULER:对所有爬取请求进行调度管理,不允许用户修改,代码已实现     DOWNLOADER MIDDLEWARE:用户可以修改配置;中间件            SPIDERS

从丁香园获取肺炎最新情况并发送QQ邮箱

故事扮演 提交于 2020-02-02 14:32:11
使用方法: python3 get_feiyan.py python3 get_feiyan.py github地址 完整代码: get_feiyan.py # -*- coding: utf-8 -*- import json import re import time import requests url = 'https://3g.dxy.cn/newh5/view/pneumonia' headers = { 'user-agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0.3945.130 Safari/537.36' } response = requests . get ( url , headers = headers ) response . encoding = response . apparent_encoding total = re . search ( r 'window\.getStatisticsService = ({.*?})' , response . text ) . group ( 1 ) total = json . loads ( total ) # 使用time

Python Scrapy not always downloading data from website

☆樱花仙子☆ 提交于 2020-02-02 06:25:07
问题 Scrapy is used to parse an html page. My question is why sometimes scrapy returns the response I want, but sometimes does not return a response. Is it my fault? Here's my parsing function: class AmazonSpider(BaseSpider): name = "amazon" allowed_domains = ["amazon.org"] start_urls = [ "http://www.amazon.com/s?rh=n%3A283155%2Cp_n_feature_browse-bin%3A2656020011" ] def parse(self, response): sel = Selector(response) sites = sel.xpath('//div[contains(@class, "result")]') items = [] titles = {

Returned unirest response in node.js is undefined

余生长醉 提交于 2020-02-02 05:20:17
问题 I am working on facebook bot, but I am in no way a node.js developer, this being my first time in using it, because I wanted to get out of my comfort zone for a little bit. This is my request function function requestExc() { var resDictionary = {} unirest.get("http://openapi.ro/api/exchange/" + queryDict["code"] + ".json") .query({"date" : queryDict["date"]}) .end(function(res) { if (res.error) { console.log('GET error', res.error) } else { console.log('GET response', res.body) resDictionary[

5 - laravel 基础 - 请求与响应

心已入冬 提交于 2020-02-02 03:50:58
获取请求/响应对象 请求对象 Request Object 使用 依赖注入 的方式来获取请求对象 $request use Illuminate\Http\Request; Route::get('/request', function (Request \$request) { // $request只是个形参, 不一定非要使用 $request dd(\$request); // dd是一个助手函数 }); 响应对象 Response Object 使用助手函数来获取响应对象 use Illuminate\Http\Request; Route::get('/response', function () { // $request只是个形参, 不一定非要使用 $request $response = response(); dd($response); }); Request 对象获取请求信息 method() 获取请求的方法,返回请求类型字符串 isMethod('post') 判断请求方法, 返回布尔值 path() 获取路径信息, 返回路径信息字符串 url() 获取完整的请求url, 返回url字符串 port() 获取请求的端口, 返回端口号 integer cookie('key') 获取cookie信息 ip() 获取请求的ip, 返回ip字符串 use

urllib的使用和进阶

ぐ巨炮叔叔 提交于 2020-02-01 20:56:22
  urllib是python中常用的一个基本库,以后的许多库包括一些框架如Scrapy都是建立在这个库的基础上的。在urllib中,为用户提供了一系列用于操作URL的功能,其提供的功能主要就是利用程序去执行各种HTTP请求。这当中,最常使用的就是urllib.request模块中的urlopen。   如果要模拟浏览器完成特定功能,需要把请求伪装成浏览器。伪装的方法是先监控浏览器发出的请求,再根据浏览器的请求头来伪装, User-Agent 头就是用来标识浏览器的。   官方给出的方法原型是这样的: def urlopen(url, data=None, timeout=socket._GLOBAL_DEFAULT_TIMEOUT, *, cafile=None, capath=None, cadefault=False, context=None):   一般常用的为以下三个部分:   url: 需要打开的网址   data:Post提交的数据   timeout:设置网站的访问超时时间   但是urlopen也有很大的缺陷,就是他没有办法进行对爬虫进行伪装,也就是无法设置请求头,这就需要urllib中的另外一个库——request,request库提供了对于请求头的使用,用来进行对爬虫的伪装,一般来说,我们会设置几个不同的Headers来进行伪装,用来改变为不同的用户

记账本开发记录——第十四天(2020.2.1)

青春壹個敷衍的年華 提交于 2020-02-01 18:15:47
今天主要学习了response对象,也就是http响应。学习了几个该对象下的方法和操作。关于其运行流程,如图: 简单解释的话,就是:客户端发送http请求,tomcat(服务器)将请求封装成request对象和response对象,发送给web应用,web应用里对response进行操作,写到response的缓冲区内,之后被tomcat获取。tomcat获取好后将其组装成一个http响应,交给浏览器解析。 从以上的解释可以看到,response下的操作大概有三类:设置响应行,设置响应头,设置响应体, 对于响应行来说,可操作内容并不多,不再详细叙述。 关于设置响应头,进行了一个简单的demo测试,如下: package header; import java.io.IOException; import java.sql.Date; import javax.servlet.ServletException; import javax.servlet.annotation.WebServlet; import javax.servlet.http.HttpServlet; import javax.servlet.http.HttpServletRequest; import javax.servlet.http.HttpServletResponse; /** * Servlet

urllib的使用

霸气de小男生 提交于 2020-02-01 18:12:13
urllib的使用 1. response = urllib.request.urlopen(url, [data=None, timeout=...]) url: 请求的url data: 请求的data, 如果设置了这个值,那么将变成post请求 response返回值:返回值是一个 http.client.HTTPResponse 对象,这个对象是一个类文件句柄对象, 有如下方法: read([size]): 读取指定字节大小的数据,默认为读取全部内容 readline(): 读取一行 readlines(): 一交读取一行,直到读取完所有数据,返回一个列表 getcode(): 响应状态码 from urllib import request response = request.urlopen('http://httpbin.org/get') # response.read(1024) # 读取全部 # response.readline() # 读取一行 # print(type(response)) print(response.readlines()) # 读取多行 print(response.getcode()) [b'{\n', b' "args": {}, \n', b' "headers": {\n', b' "Accept-Encoding":