url

如何在Django中获取完整/绝对URL(带域名)?

馋奶兔 提交于 2020-03-03 18:31:30
如何在 没有Sites模块的情况下获取 Django中的完整/绝对URL(例如 https://example.com/some/path )? 那真是太傻了......我不应该查询我的数据库以获取URL! 我想用 reverse() 来使用它。 #1楼 你可以尝试“request.get_full_path()” #2楼 如果你想使用 reverse() 你可以这样做: request.build_absolute_uri(reverse('view_name', args=(obj.pk, ))) #3楼 检查进来的 Request.META 字典。我认为它有服务器名称和服务器端口。 #4楼 根据请求使用方便的 request.build_absolute_uri() 方法,将相关网址传递给它,它会给你一个完整的。 默认情况下,返回 request.get_full_path() 的绝对URL,但您可以将相对URL作为第一个参数传递给它,以将其转换为绝对URL。 #5楼 如果您无法访问 request 则无法在此处的某些解决方案中使用 get_current_site(request) 。 您可以使用本机Sites框架和 get_absolute_url 的组合。 在管理员中设置至少一个 站点 ,确保您的模型具有 get_absolute_url() 方法,然后: >>>

js对中文进行gb2312/gbk编码解码

孤人 提交于 2020-03-03 18:04:16
JavaScript使用的是Unicode编码,使用内置的encodeURIComponent,encodeURI,escape都是编码为Unicode的url编码,如果传递这些编码到gb2312或者gbk编码的页面就会乱码。 下面是用js中实现GBK/gb2312编码。适合使用js进行页面参数传递时,给GBK/gb2312编码页面传递参数,解决乱码。 点击下载: js对中文进行gb2312/gbk编码类库 下载上面的压缩文件解压得到gbk.js文件,倒入gbk.js类库,调用$URL.encode将内容编码为gb2312字符串,调用decode解码gb2312 url编码为对应内容。 < script type = "text/javascript" src = "/demo/gbk.js" > < / script > < script > var s = '%D6%D0%B9%FA' ; //中国的gb312编码 alert ( s ) ; s = $ URL . decode ( s ) ; alert ( s ) ; s = $ URL . encode ( s ) ; alert ( s ) ; < / script > 来源: CSDN 作者: haohao7118 链接: https://blog.csdn.net/haohao7118/article

Session与Cookie的比较

浪尽此生 提交于 2020-03-03 17:48:12
前言:javaweb整合开发第五章学习笔记,只是为了加深自己的学习效果。 1.从存取方式上比较 Cookie中只能保存ASCII字符串,如果需要存取Unicode字符或者二进制数据,需要进行UTF-8等方式编码,Cookie中不能直接存取Java对象。Session可以存取任意类型的数据,Session可以看成一个容器。 2从隐私安全上比较 Cookie存储在客户端浏览器中,对客户端是可见的,敏感信息需要加密,Session存储在服务器上,对客户端是透明的。 3从有效期比较 Cookie信息可以长期有效,Session理论上也能实现这效果,但是Session依赖于名为JESSIONID的Cookie,而Cookie JSESSIONID的maxAge默认为-1,只要关闭了浏览器Session就会失效,因此Session不能实现信息永久有效的效果。Session超时时间过长,容易导致服务器内存溢出。 4从对服务器的负担上比较 Session保存在服务器端,每个用户都可以产生一个Session,Cookie保存在客户端,不占用服务器资源。 5从浏览器支持上比较 Cookie是需要客户端浏览器支持的。如果客户端禁用了Cookie,或者不支持Cookie,则会话跟踪会失效。对于WAP上的应用,常规的Cookie就派不上应用了。 Session以及URL地址重写可以跟踪会话

css 2倍图 3倍图使用方法

三世轮回 提交于 2020-03-03 17:27:49
css二倍图的使用 使用 CSS 的 DevicePixelRatio 媒查询属性 参考 CSS 或 srcset 让浏览器自动切换 1X/2X/3X图像 移动端项目中 @2x 图 和 @3x 图 的使用(需要支持css3) / 默认大小 / .photo {background-image: url(image100.png);} /* 如果设备像素大于等于2,则用2倍图 / @media screen and (-webkit-min-device-pixel-ratio: 2), screen and (min–moz-device-pixel-ratio: 2) { .photo { background-image: url(image200.png); background-size: 100px 100px; } } / 如果设备像素大于等于3,则用3倍图 */ @media screen and (-webkit-min-device-pixel-ratio: 3), screen and (min–moz-device-pixel-ratio: 3) { .photo { background-image: url(image300.png); background-size: 100px 100px; } } .photo {width:100px;height

爬虫初识与入门

荒凉一梦 提交于 2020-03-03 11:40:38
目录 一 爬虫 1、什么是互联网? 2、互联网建立的目的? 3、什么是上网?爬虫要做的是什么? 4、爬虫 1.爬虫的定义: 2.爬虫的价值 爬虫的分类 二 爬虫的基本流程 三 请求与响应 四 requests 五 response 六 案例 1.爬取搜狗首页的源码数据 2.基于搜狗编写简单的网页采集 3.爬取豆瓣电影的电影详情数据 肯德基的案例 药监总局数据爬取 4.获取斗图网的一张图片 总结 一 爬虫 1、什么是互联网? 互联网是由网络设备(网线,路由器,交换机,防火墙等等)和一台台计算机连接而成,像一张网一样 2、互联网建立的目的? 互联网的核心价值在于数据的共享/传递:数据是存放于一台台计算机上的,而将计算机互联到一起的目的就是为了能够方便彼此之间的数据共享/传递,否则你只能拿U盘去别人的计算机上拷贝数据了。 3、什么是上网?爬虫要做的是什么? 我们所谓的上网便是由用户端计算机发送请求给目标计算机,将目标计算机的数据下载到本地的过程。 只不过,用户获取网络数据的方式是: 1.浏览器提交请求->下载网页代码->解析/渲染成页面。 而爬虫程序要做的就是: 2.模拟浏览器发送请求->下载网页代码->只提取有用的数据->存放于数据库或文件中   1与2的区别在于: 我们的爬虫程序只提取网页代码中对我们有用的数据 4、爬虫 1.爬虫的定义: 向网站发起请求

Trouble using jsonlite's fromJSON() with URL in R

孤街浪徒 提交于 2020-03-03 10:50:13
问题 I have a URL that displays content (file IDs) from a certain website's API, in JSON format. To do this programmatically, I use the fromJSON(txt) function of the jsonlite package, which then parses the JSON into a vector (or list, not sure). This works perfectly on my home computer. However, when I run the same identical code at work, it seems that the fromJSON(txt) doesn't identify the URL as such and rather tries to parse the actual URL text, since I get the following error: Error: lexical

python爬取食药监局企业信息

ⅰ亾dé卋堺 提交于 2020-03-03 08:25:40
import requests import json if __name__ == '__main__': headers = { 'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.122 Safari/537.36' } url = 'http://125.35.6.84:81/xk/itownet/portalAction.do?method=getXkzsList' id_list = [] # 存储页面的所有企业id info_list = [] # 存储所有企业的详细信息对象 for page in range(1,137): page=str(page) param ={ 'on': 'true', 'page': page, 'pageSize': '15', 'productName':'', 'conditionType': '1', 'applyname':'', 'applysn':'' } data_obj = requests.post(url=url,data=param,headers=headers).json() #提取json中的指定部分内容,此处为id for obj

爬取猫眼电影榜单

岁酱吖の 提交于 2020-03-03 07:38:35
# 1.打印程序执行时间 # 2.随机的User-Agent(确保每次发请求使用随机) # 3.数据爬下来后做处理(字符串),定义成字典 # 4.一条龙:获取 --> 调用解析 --> 数据处理 # 请求模块 from urllib import request import re import time import random import csv class Maoyan_spider(object): def __init__(self): self.url = "https://maoyan.com/board/4?offset={}" self.ua_list = [ 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/14.0.835.163 Safari/535.1', 'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/535.1 (KHTML, like Gecko) Chrome/13.0.782.41 Safari/535.1 QQBrowser/6.9.11079.201', 'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:6.0) Gecko/20100101 Firefox/6

HTTP请求响应模型

淺唱寂寞╮ 提交于 2020-03-03 07:26:16
1、 HTTP协议 Internet的基本协议是TCP/IP协议(传输控制协议和网际协议),目前广泛使用的FTP、HTTP(超文本传输协议)、Archie Gopher都是建立在TCP/IP上面的应用层协议,不同的协议对应不同的应用。而HTTP协议是Web应用所使用的主要协议。 HTTP协议是基于请求响应模式的。客户端向服务器发送一个请求,请求头包含请求的方法、URI、协议版本、以及包含请求修饰符、客户端信息和内容的类似MIME的消息结果。服务器则以一个状态行作为响应,相应的内容包括消息协议的版本、成功或者错误编码加上包含服务器信息、实体元信息以及可能的实体内容。 HTTP是无状态协议,依赖于瞬间或者近乎瞬间的请求处理。请求信息被立即发送,理想的情况是没有延时的进行敕处理,不过,延时还是客观存在的。HTTP有一种内置的机制,在消息的传递时间上由一定的灵活性:超时机制。一个超时就是客户机等待请求消息的返回信息的最长时间。 HTTP的请求和响应消息如果没有发送并传递成功的话,不保存任何已传递的信息。比如,单击“提交”按钮,如果表单没有发送出去,则浏览器将显示错误信息页,并且返回空白表单。虽然没有发送成功,但是HTTP不保存表单信息。 由于HTTP协议的上述特点,通常,客户端每次需要更新信息都必须重新向服务器发起请求,客户端收到服务器返回的信息后再更新屏幕内容。 基于HTTP协议的客户端

jQuery-事件

倾然丶 夕夏残阳落幕 提交于 2020-03-03 07:13:58
一·、AJAX 用jQuery的相关对象来处理AJAX,不但不需要考虑浏览器问题,代码也能大大简化。 ajax jQuery在全局对象jQuery(也就是$)绑定了ajax()函数,可以处理AJAX请求。ajax(url, settings)函数需要接收一个URL和一个可选的settings对象,常用的选项如下: async:是否异步执行AJAX请求,默认为true,千万不要指定为false; method:发送的Method,缺省为'GET',可指定为'POST'、'PUT'等; contentType:发送POST请求的格式,默认值为'application/x-www-form-urlencoded; charset=UTF-8',也可以指定为text/plain、application/json; data:发送的数据,可以是字符串、数组或object。如果是GET请求,data将被转换成query附加到URL上,如果是POST请求,根据contentType把data序列化成合适的格式; headers:发送的额外的HTTP头,必须是一个object; dataType:接收的数据格式,可以指定为'html'、'xml'、'json'、'text'等,缺省情况下根据响应的Content-Type猜测。 下面的例子发送一个GET请求,并返回一个JSON格式的数据: var