url

iOS系统关于URL Schemes的漏洞探究

若如初见. 提交于 2020-03-01 02:39:22
iOS系统关于URL Schemes的漏洞探究 一、何为URL Schemes 我想这个东西的设计的目的是为了方便App之间的相互调用与通讯,你可以在自己的App中使用OpenURL方法来唤起其他的App。比如微信的URL Schemes是wiexin,我们新建一个工程,实现如下代码后运行程序: [[UIApplication sharedApplication]openURL:[NSURL URLWithString:@"weixin://]]; 这时你会发现,你的应用启动后很快就调起了微信的客户端。 二、由URL Schemes引发的漏洞的根源 1、一个小问题引起的漏洞根源 如上所说,通过URL Schemes可以在应用间相互唤起,而产生漏洞的根源在于这个URL并非是应用唯一的。apple并没有任何限制或者审核这个URL的任何措施,也就是说,如果两个App有着相同的URL Schemes,那么系统唤起的App可能并不是你想唤起的。 2、URL Schemes的优先级如何确定 由于相同的URL Scheme可能同时被多个App使用,再如果这些App都安装在了同一个设备上,那么系统究竟会唤起哪一个呢?这个我也不能十分的确定,只有一点可以肯定:如果有和系统应用的URL Scheme相同,那么系统一定会唤起系统自己的应用,在这里系统的应用有着最高的优先级(苹果这里做的好像很不厚道

网络爬虫之爬小姐姐的写真python

自作多情 提交于 2020-03-01 01:31:57
学了这么久,得到了一些经验与分享: 其中:函数open1()访问制定URL的网页; 函数getp()是访问下图小姐姐写真标签,深蓝色即使爬取标签数 函数find()爬取写真照的URL 函数save()将指定URL的写真爬取到制定的文件夹里 主函数down() import urllib . request import os def open1 ( url ) : rep = urllib . request . Request ( url ) rep . add_header ( 'User-Agent' , ' Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:71.0) Gecko/20100101 Firefox/71.0' ) r = urllib . request . urlopen ( rep ) h = r . read ( ) return h def getp ( url ) : h = open1 ( url ) . decode ( 'utf-8' ) a = h . find ( "current-comment-page" ) + 23 b = h . find ( ']' , a ) return h [ a : b ] def find ( url ) : h = open1 ( url ) . decode

axios用法

心不动则不痛 提交于 2020-03-01 01:25:45
axios是什么 基于 promise 的 HTTP 库,可以用在浏览器和 node.js 中 axios的特点 从浏览器中创建 XMLHttpRequests 从 node.js 创建 http 请求 支持 Promise API支持 Promise API 拦截请求和响应 (就是有interceptor,拦截器) 转换请求数据和响应数据 取消请求 自动转换 JSON 数据 客户端支持防御 XSRF //执行get请求 // Make a request for a user with a given ID axios . get ( '/user?ID=12345' ) . then ( function ( response ) { console . log ( response ) ; } ) . catch ( function ( error ) { console . log ( error ) ; } ) ; // Optionally the request above could also be done as axios . get ( '/user' , { params : { ID : 12345 } } ) . then ( function ( response ) { console . log ( response ) ; } ) .

如何用腾讯云打造一款微视频APP

爷,独闯天下 提交于 2020-03-01 00:25:24
版权声明:本文由腾讯云原创文章,转载请注明出处: 文章原文链接: https://www.qcloud.com/community/article/196 来源:腾云阁 https://www.qcloud.com/community 产品的整个技术实现架构由Android/iOS APP、业务服务器以及腾讯云服务组成。其中,APP负责和用户进行交互,包含的功能模块有: 注册登录(支持微信、QQ等第三方账号登录) 拍照/录像 上传到云( 腾讯云对象存储COS + 内容分发网络CDN ) 视频播放(本地播放/云端点播) 语音识别(腾讯云智能语音服务Artificial Audio Intelligence) 图片处理(腾讯云万象优图的图片处理和智能鉴黄服务) 考虑到我们的业务类型和开发团队的技术基础,我们选用的后台技术架构是Struts+Hibernate+Spring+ MySql ,前端为Android和iOS。 为便于快速开发和可靠扩展,对于关键技术难点——图片、音频、视频等大量非结构化数据的上传、存储和点播,我们采用腾讯云提供的对象存储(COS:Cloud Object Service)和内容分发网络(CDN:Content Delivery Network)作为实现方案。这样,后台的MySql数据库中就只需要存储图片、音频、视频等文件在腾讯云对象存储中的Url

h5网页在微信里打开 右上角分享到微信好友或者朋友圈

你。 提交于 2020-02-29 23:37:14
首先你需要一个分享接口地址,然后在自定义图片 标题 描述 如下: <script src="http://res.wx.qq.com/open/js/jweixin-1.0.0.js"></script> <script> $(function() { //微信分享 $.ajax({ "url":"https://***.***.com/getJsAPITicket", //接口地址 "type":"Get", "dataType":"json", "data":{"url": window.location.href}, "success":function(data){ wxstart(data, ""); } }); }); function wxstart(data, url){ var url = ''; //分享的文章地址 var appId = data.appId; var timestamp = data.timestamp; var nonceStr = data.nonceStr; var signature = data.signature; wx.config({ debug: false, // 开启调试模式,调用的所有api的返回值会在客户端alert出来,若要查看传入的参数,可以在pc端打开,参数信息会通过log打出,仅在pc端时才会打印。

如何添加或更新查询字符串参数?

谁说胖子不能爱 提交于 2020-02-29 22:16:58
使用javascript,如何将查询字符串参数添加到url(如果不存在)或如果存在,则更新当前值? 我正在使用jquery进行客户端开发。 #1楼 我已经扩展了该解决方案,并将其与我发现的另一个解决方案结合在一起,可以根据用户输入并考虑url锚点来替换/更新/删除querystring参数。 不提供值将删除该参数,提供一个将添加/更新该参数。 如果没有提供URL,它将从window.location中获取。 function UpdateQueryString(key, value, url) { if (!url) url = window.location.href; var re = new RegExp("([?&])" + key + "=.*?(&|#|$)(.*)", "gi"), hash; if (re.test(url)) { if (typeof value !== 'undefined' && value !== null) { return url.replace(re, '$1' + key + "=" + value + '$2$3'); } else { hash = url.split('#'); url = hash[0].replace(re, '$1$3').replace(/(&|\?)$/, ''); if (typeof hash[1]

hexo部署博客没有样式等问题

夙愿已清 提交于 2020-02-29 22:01:59
文章目录 hexo部署博客没有样式等问题 前言 问题描述以及解决过程 解决方法 样式解决方法 图片解决方法 总结 hexo部署博客没有样式等问题 前言 如果想看完成过程,可直接往下看 如果想知道怎么修改,直接看问题解决即可 最近因为部署到github的博客实在访问实在太慢了,想要不部署到gitee去,可能速度会快很多 问题描述以及解决过程 当下载了hexo的第三方主题,之后,输入 hexo server 可以在本地查看效果 但是上传到了gitee上面我发现样式全没了 我在百度上找了好久的方法都没有找到,于是就查看输入了 hexo g 的时候会生成什么,发现生成了一个public的文件夹,在这的文件夹跟上传到gitee的文件一模一样 于是,我打开进去看,打开index文件,并且找到了引入css的标签,试着把href改成 ./css/index.css 发现在本地打开打开就好了 部署到gitee也没有啥问题 但是图片就出问题了,头像和其他图片根本就没有出来,在本地打开文件却能看到 经过摸索发现了在更目录下的 _config.yml 文件里的 url 和 root 指定的位置,跟图片引入的位置有点关联,在之前百度的时候就有人过修改这两个的参数, _config.yml 默认的 url 是 http://yoursite.com 然后我发现用link引入的图片前缀都有 http:/

微信公众平台-配置接口

烂漫一生 提交于 2020-02-29 19:54:39
一、简介 微信公众平台是腾讯公司在微信的基础上新增的功能模块,通过这一平台,个人和企业都可以打造一个微信的公众号,并实现和特定群体的文字、图片、语音的全方位沟通、互动。 二、通讯机制 三、注册微信平台公众帐号 注册地址: https://mp.weixin.qq.com 四、服务器端配置 4.1 示例代码设置 微信公众平台提供了一个php示例代码: http://mp.weixin.qq.com/mpres/htmledition/res/wx_sample.zip 下载下来,解压缩,打开编辑。 将token值设置为你所需要的值,token可由开发者任意填写,用作生成签名。 编辑完保存并关闭文件,将文件wx_sample.php 更改成自定义的名字,这里改为wxapi.php,再次打包成wxapi.zip。 4.2 服务器平台设置 如果有自己的服务器,而且支持php,可以将接口文件上传至服务器,如果没有自己的服务器,则可以选择部分免费的云平台进行开发,如百度应用引擎BAE( http://developer.baidu.com/bae ),新浪云平台SAE( http://sae.sina.com.cn/ )。 4.2.1 百度BAE设置 a. 注册BAE帐户并登录 https://passport.baidu.com/v2/?reg&regType=1&tpl=mn&u=http

PHP 单一入口

孤人 提交于 2020-02-29 18:40:02
单一入口概述 单一入口的应用程序就是说用一个文件处理所有的HTTP请求,例如不管是列表页还是文章页,都是从浏览器访问index.php文件,这个文件就是这个应用程序的单一入口。 打个比方,大家都要上WC,都是男生进一个门,女生进一个门,这两个门就是WC的两个入口。而现在去一个公园里面的WC,外面还有一个门,不管男女都从最外面的门进入,交了钱以后才进入里面的男厕所门或女厕所门,而这个最外面的门就是这个WC的单一入口。 实现方式 很简单,可以在访问index.php时限上一个特定的参数。例如index.php?action=list就是访问列表页,而index.php?action=single则访问文章页。 实现代码: $action=$_GET['action']==''?'index':$_GET['action'];//从url中取出action参数,如果没有提供action参数,就设置一个默认的'index'作为参数 include('files/'.$action.'.php');//根据$action参数调用不同的代码文件,从而满足单一入口实现对应的不同的功能。 单一入口应用程序的优势 单一入口应用程序的所有http请求都是通过index.php接收并转发到功能代码去的,所以在index.php里面就能完成许多实际工作。 由于所有的http请求都由index.php接收

爬虫之scrapy框架(二)

六月ゝ 毕业季﹏ 提交于 2020-02-29 17:32:07
目录 一、使用scrapy整站爬取网站信息 scrapy的真正起始爬取方法 使用scrapy整站爬取cnblogs网站信息大致思路 二、scrapy的请求传参 三、提升scrapy爬取数据的效率 四、scrapy的下载中间件 下载中间件使用代理池 scrapy settings详细介绍 五、selenium在scrapy中的使用流程 六、scrapy框架去重规则 七、scrapy-redis分布式爬虫 八、常见反扒措施 一、使用scrapy整站爬取网站信息 scrapy的真正起始爬取方法 当我们启动spider.py文件时,会执行我们设置好的 start_urls ,但是源码真正是如何处理的呢?我们进入scrapy.Spider查看源码,Spider类下有如下代码: def start_requests(self): cls = self.__class__#当前实例对象的类 if method_is_overridden(cls, Spider, 'make_requests_from_url'): warnings.warn( "Spider.make_requests_from_url method is deprecated; it " "won't be called in future Scrapy releases. Please " "override Spider