url

爬虫之requests库

荒凉一梦 提交于 2020-03-14 18:55:33
想用selenium实现B站自动登录以及点赞等功能,便查阅如何解决滑动解锁,然而是有关爬虫的内容,便开始学习爬虫,没过多久又想把记录自己生活的网站做起来,朋友便推荐了layui框架倒腾了一晚上自我觉得是做给后端程序员入门的框架,Vue又感觉太难,便开始搞bootstrap,没搞出个所以然来。因为闲着心情烦躁便开始重新学习爬虫。每次写点文章总是碎碎念一段,有人在评论去区说我矫情,是真的。 http请求返回response对象属性 编码问题 import requests r=requests.get('http://www.baidu.com/') r.encoding='gbk' 或 r.encoding=r.apparent_encoding #百度返回的页面内容为ISO-8859-1编码的,如果不设置成gbk则乱码 print(response.text) requests的库异常处理 requests库的主要方法 1 import requests 2 r = requests.get('https://www.cnblogs.com/') 3 r = requests.head('http://httpbin.org/get') 4 r = requests.post('http://httpbin.org/post',key='value') 5 r = requests

写博客没高质量配图?python爬虫教你绕过限制一键搜索下载图虫创意图片!

◇◆丶佛笑我妖孽 提交于 2020-03-14 18:43:07
目录 前言 分析 理想状态 爬虫实现 其他注意 效果与总结 @(文章目录) 前言 在我们写 文章(博客、公众号、自媒体) 的时候,常常觉得自己的文章 有些老土 ,这很大程度是因为 配图 没有选好。 笔者也是遇到相同的情况,顺便解决其中一个案例,给 大家一些技术上的参考和借鉴 ! 并且,我们搜图片如果去百度,会遇到两种情况: 非高清 或者 带水印 。这都是我们所忌讳的东西。笔者此次通过图虫创意抓起高清小图,虽然不是大图, 但是在火热的移动端阅读上是足够的 ! 分析 废话说完了,我们开始分析怎么样才能获取这样的图片呢。 理想状态 我们的理想状态就是一个网页,我们的目标网页,把图片 <img src="xxxxxx"> 直接放到html中。我们的爬虫可以直接解析。这种情况, 就像你写的博客,个人网站的图片一样,简单嵌入 。 或者就是通过后台ajax传输图片地址引用。我们 不清楚 是否这样! 实际分析 但事实这种肯定会被理想破灭,因为不可能!他 以图片为核心业务 , 要你注册,购买 等等,怎么可能就这么 容易 的嵌入进入被你找到。 那它到底如何实现呢?我们分析一下! 首先打开网页,检查图片,发现它的网页图片来源不唯一。有两个主要域名 ice 和 wel ,并且后面的编号还不唯一,但是可以尝试发现 相同域名不同后缀的图片地址结果相同 !(例如 icweiliimg9 和 icweiliimg

微信小程序HTTP接口请求封装

醉酒当歌 提交于 2020-03-14 18:08:32
1.方法封装(新建文件夹util,工具文件,在文件夹下创建request.js文件,用于对方法封装) request.js: var app = getApp(); //项目URL相同部分,减轻代码量,同时方便项目迁移 //这里因为我是本地调试,所以host不规范,实际上应该是你备案的域名信息 var host = 'http://localhost:8081/demo/'; /** * POST请求, * URL:接口 * postData:参数,json类型 * doSuccess:成功的回调函数 * doFail:失败的回调函数 */ function request(url, postData, doSuccess, doFail) { wx.request({ //项目的真正接口,通过字符串拼接方式实现 url: host + url, header: { "content-type": "application/json;charset=UTF-8" }, data: postData, method: 'POST', success: function (res) { //参数值为res.data,直接将返回的数据传入 doSuccess(res.data); }, fail: function () { doFail(); }, }) } //GET请求,不需传参

js中window.location.search的用法和作用。

隐身守侯 提交于 2020-03-14 07:35:42
用该属性获取页面 URL 地址: window.location 对象所包含的属性 属性 描述 hash 从井号 (#) 开始的 URL(锚) host 主机名和当前 URL 的端口号 hostname 当前 URL 的主机名 href 完整的 URL pathname 当前 URL 的路径部分 port 当前 URL 的端口号 protocol 当前 URL 的协议 search 从问号 (?) 开始的 URL(查询部分) 如图就是取出url中的参数。 JS 脚本捕获页面 GET 方式请求的参数?其实直接使用 window.location.search 获得,然后通过 split 方法结合循环遍历自由组织数据格式。 大概处理如下: var searchURL = window.location.search; searchURL = searchURL.substring(1, searchURL.length); var targetPageId = searchURL.split("&")[0].split("=")[1]; 来源: https://www.cnblogs.com/lgx5/p/7898647.html

Android中的URL编码

主宰稳场 提交于 2020-03-13 21:06:26
您如何在Android中编码 URL ? 我以为是这样的: final String encodedURL = URLEncoder.encode(urlAsString, "UTF-8"); URL url = new URL(encodedURL); 如果我做了上述情况, http:// 在 urlAsString 被替换 http%3A%2F%2F 在 encodedURL ,然后我得到一个 java.net.MalformedURLException 当我使用的URL。 #1楼 对于android,我将使用String android.net.Uri.encode(String s) 使用UTF-8方案将给定字符串中的字符编码为'%'转义的八位字节。 保留字母(“ AZ”,“ az”),数字(“ 0-9”)和未保留的字符(“ _- !.〜'()*”)完整无缺。 编码所有其他字符。 例/ String urlEncoded = "http://stackoverflow.com/search?q=" + Uri.encode(query); #2楼 你也可以用这个 private static final String ALLOWED_URI_CHARS = "@#&=*+-_.,:!?()/~'%"; String urlEncoded = Uri.encode(path,

scrapy框架

一世执手 提交于 2020-03-13 18:43:16
一、介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速、简单、可扩展的方式从网站中提取所需的数据。但目前Scrapy的用途十分广泛,可用于如数据挖掘、监测和自动化测试等领域,也可以应用在获取API所返回的数据(例如 Amazon Associates Web Services ) 或者通用的网络爬虫。 Scrapy 是基于twisted框架开发而来,twisted是一个流行的事件驱动的python网络框架。因此Scrapy使用了一种非阻塞(又名异步)的代码来实现并发。整体架构大致如下 在Scrapy的数据流是由执行引擎控制,具体流程如下: 1、spiders产生request请求,将请求交给引擎 2、引擎(EGINE)吧刚刚处理好的请求交给了调度器,以一个队列或者堆栈的形式吧这些请求保存起来,调度一个出来再传给引擎 3、调度器(SCHEDULER)返回给引擎一个要爬取的url 4、引擎把调度好的请求发送给download,通过中间件发送(这个中间件至少有 两个方法,一个请求的,一个返回的), 5、一旦完成下载就返回一个response,通过下载器中间件,返回给引擎,引擎把response 对象传给下载器中间件,最后到达引擎 6、引擎从下载器中收到response对象,从下载器中间件传给了spiders

秋色园学习测试项目

倖福魔咒の 提交于 2020-03-13 11:24:24
小弟今年 6 月份刚刚毕业。前天刚刚开始接触 秋色园 这个开源框架,感觉收获颇多,在此写了一个测试项目,加上了一个自己写的路由机制。还望各位看官见笑了。 我的项目分为:UrlRewrite层,UrlRewriteModule层,WebUI 层。 UrlRewrite层用于当http 处于刚刚进来的时候用 HttpModule处理路由操作。 UrlRewriteModule层里面继承了一个HttpHandler为页面基类,在里面设定了整张页面的生命周期。 WebUI 层是 web 应用层。 如下图: 我的路由机制设定的URL 格式是这样的: ~/ 模块名 / 页面名(不加后缀) ? 参数 其中模块名如果你是在根目录下的如 Default.ashx 页面则为 Home ,其他是对应其文件夹名的如 AdminDefault.ashx 的模块名为 Admin 。 在第一次接受到 http 请求的时候交由 UrlRewrite里面的UrlRewrite处理。并且将get 方式获得的参数加请求的 URL 一起传过去。 public void Init(HttpApplication context) { context.BeginRequest += new EventHandler(context_BeginRequest); } void context_BeginRequest

Django之权限(起步)

冷暖自知 提交于 2020-03-13 11:15:46
一. 权限概述 1. 认识权限 为什么要有权限? 因为权限让不同的用户拥有不同的功能. 权限可以对功能进行划分. 生活中处处有权限. 比如, 腾讯视频会员才有观看某个最新电影的权限, 你有房间钥匙就有了进入这个房间的权限. 同样, 程序开发过程中也有权限, 我们今天所说的权限指的是web网站权限, 对于不同用户访问web服务时应该有不同的功能. 例如: 一个公司有CEO, 销售主管, 销售等等, 不同的用户能访问的服务也不是完全相同的. 处于这样的需求下, 我们就需要权限控制了. 2. 为什么要开发权限组件? 组件可以减少代码的重复, 能提高我们的开发效率--开发一次组件, 那么在以后的项目中可以一直使用. 3. web开发中权限是指什么? 首先我们要认识到, web程序是通过 url 的切换来查看不同的页面(功能)的, 所以权限指的其实就是一个含有正则表达式的URL, 对url控制就是对权限的控制. 结论: 一个人有多少权限就取决于他有多少个URL的访问权限. 二. 权限表结构设计 1.版本一 按照生活中的实际情况来看, 一个用户有多个权限, 一个权限也可以分配给多个用户, 所以我们可以设计出下面的三张表: 分析: 设计完该表结构之后, 我们又考虑到这种情况: 如果我们再新增10个用户, 每个用户都有权限表中的2个权限, 这意味着我们就要在"权限和用户关联表"中新增40条记录.

How to get the URL of current page in JSF?

妖精的绣舞 提交于 2020-03-13 07:15:19
问题 Is there any way to get the URL of the page which is loaded? I would like the URL of the page which is loaded, in my controller i will call a method getUrlOfPage() in init() method . I need the URL source to use it as a input for exporting the context in it. How to get the URL of the page? 回答1: It's available by HttpServletRequest#getRequestURL() (with domain) or getRequestURI() (without domain). The HttpServletRequest itself is in turn available by ExternalContext#getRequest(). Thus, so:

What does the warning “redirecting to” actually mean?

这一生的挚爱 提交于 2020-03-13 07:08:26
问题 I have noticed that sometimes when I git pull a project, there is a message saying: "warning: redirecting to <url>" I tried searching what it means but I find nothing useful. What is it? 回答1: warning: redirecting to This is typical of a Git repo URL starting with git:// or http:// , but which is redirected at the server level to https:// (which is more secure, and allows for authentication) This is set at the server level (as in this one) with a 301 Moved Permanently. # enforce https location