safari

[转]将微信和支付宝支付的个二维码合二为一

大城市里の小女人 提交于 2020-04-27 02:56:37
本文转自: https://blog.csdn.net/woshishuiaaad/article/details/53540933 因公司需要将支付宝和微信的二维码合成一个,不管用户用支付宝扫还是微信扫都能打开对应的支付页面,在网上找了一些文章,很感谢各位大神的经验,我也记录下我是如何将两个二维码合二为一的~。 原理:支付宝或微信生成的二维码中本质都内嵌了一个url,在扫码时实际是定向去访问二维码中内嵌的url,这样我就可以将这个url指定到我的一个控制器,在控制器中判断是微信还是支付宝软件扫的,然后去唤醒各自的支付即可。 1.首先生成二维码: folderName:存储二维码图片的文件夹名 imageName:二维码图片名称 content:是在二维码中写入的内容,这里我传入的是URL:指定我判断软件类型的控制器 [java] view plain copy public static String genQRImage(String folderName, String imageName, String content) { //String filePath = System.getProperty("twtwebapp.root"); String fileName = imageName + ".png"; try { // 检查是否存在imageQR目录

自己做语料——Python爬取新闻联播文字版

江枫思渺然 提交于 2020-04-26 19:15:24
因为学习需要,想自己弄一些语料玩玩,新闻联播似乎是个不错的选择,然后百度了一下: 感觉还是挺多的。。。。所以我选择了第二个。。就是http://www.xwlbo.com/txt.html这个网址。 看了一下,这个网址是以_1的方式翻页的。 一共有47页,数据追溯到 2015年12月24日新闻联播主要内容 似乎还可以。。。。 分析了下源代码。列表页的文章是用一个列表维护的: 文章内的文字爬取难度一般,但是比较乱 我的思路是:     先爬取文章ID号,再遍历ID号爬一遍各个ID下的新闻的内容 那就, 直接上代码: python爬虫爬取网站内容时,如果什么也没带,即不带报头headers,往往会被网站管理维护人员认定为机器爬虫,所以我们需要伪装浏览器的user-agent。 这个是网上的模板,用来随机组成User-Agent #settings.py   User_Agents = [ ' Mozilla/5.0 (Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50 ' , ' Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50

python爬取优美图库海量图片,附加代码,一键爬取

旧街凉风 提交于 2020-04-26 16:10:16
优美高清图片为大家提供高清美女套图赏析,非高清不录入,大家的网速要给力。 今天教大家爬取优美图库网站中高质量的图片!! 简单易上手哦~ 使用工具: Python 3.6 pycharm 相关环境: requests parsel xpath 主要内容: 1、系统分析目标网页 2、html标签数据解析方法(xpath) 3、海量图片数据一键保存 爬虫的一般思路: 1、确定爬取的url路径,headers参数 2、发送请求 -- requests 模拟浏览器发送请求,获取响应数据 3、析数据 -- parsel 转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理 4、保存数据 代码如下: import requests import parsel # 1、确定爬取的url路径,headers参数 base_url = ' https://www.umei.cc/meinvtupian/meinvxiezhen/ ' headers = { ' user-agent ' : ' Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.122 Safari/537.36 ' } # 2、发送请求 --

什么?Iconfont终于可以支持彩色图标了

喜你入骨 提交于 2020-04-26 13:55:18
如果你对iconfont有所了解,那你一定对这次iconfont做出的更新产生兴趣。没错,iconfont目前已经升级为iconfont+,并且能够支持大家都很期待的彩色图标。 之前,大家也以文字的形式实现过网页中的图标和特殊字符,现在,使用全新的彩色图标一定更能体现 symbol引用: 这是一种全新的使用方式,应该说这才是未来的主流,也是平台目前推荐的用法。相关介绍可以参考这篇文章 这种用法其实是做了一个svg的集合,与另外两种相比具有如下特点: 支持多色图标了,不再受单色限制。 通过一些技巧,支持像字体那样,通过font-size,color来调整样式。 兼容性较差,支持 ie9+,及现代浏览器。 浏览器渲染svg的性能一般,还不如png。 这种全新的使用方式,据官网介绍说是做了一个svg的集合,SVG(Scalable Vector Graphics)可缩放矢量图形,SVG具有什么特点呢? SVG特点: 1.任意放缩。(用户可以任意缩放图像显示,而不会破坏图像的清晰度、细节等。) 2.文本独立。(SVG图像中的文字独立于图像,文字保留可编辑和可搜寻的状态。也不会再有字体的限制,用户系统即使没有安装某一字体,也会看到和他们制作时完全相同的画面。) 3.较小文件。(总体来讲,SVG文件比那些GIF和JPEG格式的文件要小很多,因而下载也很快。) 4.超强显示效果。

好消息!iconfont+开始支持彩色图标

时光总嘲笑我的痴心妄想 提交于 2020-04-26 13:54:47
想必关注iconfont的同学都知道,iconfont最近做出了一次重大升级,升级成为iconfont+了,而这次更新,iconfont+居然开始支持彩色图标,这意味着我们能够使用更具有特色更形象的全新图标。之前我们也发表过一篇关于iconfont图标字体的相关教程,以文字的方式,实现网页中的图标和特殊字符。教程链接可参考: 点这里 接下来我们来详细了解一下全新的功能吧。 symbol引用: 这是一种全新的使用方式,应该说这才是未来的主流,也是平台目前推荐的用法。相关介绍可以参考这篇文章 这种用法其实是做了一个svg的集合,与另外两种相比具有如下特点: 支持多色图标了,不再受单色限制。 通过一些技巧,支持像字体那样,通过font-size,color来调整样式。 兼容性较差,支持 ie9+,及现代浏览器。 浏览器渲染svg的性能一般,还不如png。 这种全新的使用方式,据官网介绍说是做了一个svg的集合,SVG(Scalable Vector Graphics)可缩放矢量图形,SVG具有什么特点呢? SVG特点: 1.任意放缩。(用户可以任意缩放图像显示,而不会破坏图像的清晰度、细节等。) 2.文本独立。(SVG图像中的文字独立于图像,文字保留可编辑和可搜寻的状态。也不会再有字体的限制,用户系统即使没有安装某一字体,也会看到和他们制作时完全相同的画面。) 3.较小文件。(总体来讲

拿下60亿流量的《惊雷》都是哪些人在听?python帮你统计出来

末鹿安然 提交于 2020-04-26 13:28:34
前言 本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,版权归原作者所有,如有问题请及时联系我们以作处理。 作者: 听不来喊麦的C君 PS:如果你处于想学Python或者正在学习Python,Python的教程不少了吧,但是是最新的吗?说不定你学了可能是两年前人家就学过的内容,在这小编分享一波2020最新的Python教程。获取方式,私信小编 “ 资料 ”,即可免费获取哦! 这看起来不着边际的歌词,配上简单粗暴的蹦迪音乐。 最近,一首《惊雷》的喊麦歌曲在短视频平台火了,震惊了整个音乐圈。 但4月10日歌手杨坤却在直播中批评《惊雷》“要歌没歌,要旋律没旋律,要节奏没节奏,要律动没律动”,评价其“难听”、“俗气”。 4月11日,MC六道以原唱者的身份对杨坤的指责做出回应表示,音乐没有高低之分,称《惊雷》现在比杨坤的任何一首歌都火。一时间更是把《惊雷》推上了风口浪尖。 那么《惊雷》这首歌到底怎么样?都是哪些人在听?今天我们就用Python来给你解读。 01 拿下60亿流量 喊麦歌曲《惊雷》火了! 说道喊麦,作为近年来一种新兴的表演形式,其内容和表达方式则比较简单和浮夸,主要形式是在网上下载一些伴奏(以电音伴奏为主),跟着伴奏以简单的节奏和朗朗上口的押韵手法进行的语言表演。 更简单的说法就是,演唱时不讲究什么技法,带着伴奏对着麦喊就完事。比如之前爆火的《一人我饮酒醉

爬取快代理免费ip,构建自己的代理ip池,不再怕反爬(附代码)

ⅰ亾dé卋堺 提交于 2020-04-26 13:27:38
我们在做爬虫的过程中经常会遇到这样的情况:最初爬虫正常运行,正常抓取数据,然而一杯茶的功夫可能就会出现错误,比如403 Forbidden;这时候网页上可能会出现“您的IP访问频率太高”这样的提示,过很久之后才可能解封,但是一会后又出现这种情况。 因此我们使用某种方式来伪装本机IP,以使服务器无法识别由本地计算机发起的请求,这样我们可以成功地阻止IP被封。所以这时候代理ip就派上用场了。 爬虫的一般思路 1、确定爬取的url路径,headers参数 2、发送请求 -- requests 模拟浏览器发送请求,获取响应数据 3、解析数据 -- parsel 转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理 4、保存数据 [环境介绍]: python 3.6 pycharm requests parsel(xpath) 代码如下: import requests import parsel import time def check_ip(proxies_list): """ 检测ip的方法 """ headers = { ' User-Agent ' : ' Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/79.0

手把手教你使用Python抓取QQ音乐数据(第二弹)

流过昼夜 提交于 2020-04-26 12:07:27
【一、项目目标】 通过Python爬取QQ音乐数据(一)我们实现了获取 QQ 音乐指定歌手单曲排行指定页数的歌曲的歌名、专辑名、播放链接。 此次我们在之前的基础上获取QQ音乐指定歌曲的歌词及前15个精彩评论。 【二、需要的库】 主要涉及的库有:requests、json、html 【三、项目实现】 1.以歌曲“泡沫”为例,查看该界面的XHR 2.通过对XHR的Size进行排序,逐个查看(参考英文含义),我们看到第一个红框内是歌曲评论,第二个框内是歌词! 3.分别查看这两条数据Headers里面Parms参数。 4.发现这几个参数可能会代表不同的歌曲,那到底是哪个呢,我们在代开另一首歌对比一下。 5.发现只有这个topid不同,其他都一样,这就代表topid代表不同歌曲的id,同理我们看一下歌词。 6、确定下来:musicid= topid = 歌曲的id,接下来我们的任务是找到这个id。 7.返回以下界面,也就是我们上一个项目的主战场。 参考上一个项目,很容易找到“id”的值就是我们要寻找的id。 所以思路确定下来:先通过input()输入歌名生成url_1找到该歌曲的“id”参数,再生成url_2获取歌词和评论。 8.代码实现:获取歌曲id,如下所示: import requests,html,json url_1 = ' https://c.y.qq.com/soso/fcgi

python+scrapy 爬取西刺代理ip(一)

混江龙づ霸主 提交于 2020-04-26 06:29:02
转自:https://www.cnblogs.com/lyc642983907/p/10739577.html 第一步:环境搭建 1.python2 或 python3 2.用pip安装下载scrapy框架 具体就自行百度了,主要内容不是在这。 第二步:创建scrapy(简单介绍) 1.Creating a project(创建项目) scrapy startproject 项目名称 2.Defining our item(定义我们的项目) 3.writing a spider(写spider) scrapy genspider (spider的名称)(爬取的网页) 4.writing & Configure an item Pipeline(编写和配置项目管道) 5.Execute crawl(执行爬虫) scrapy crawl (spider的名称) 第三步:具体实现 1.创建项目 进入scrapy项目的工作区间(xici项目名) scrapy startproject xici 此时项目结构是这样 2.创建spider爬虫 进入项目创建(注意后面的不是具体地址,是域名) scrapy genspider xicidaili 'xicidaili.com' 此时,你会发现在spiders文件夹下多了个 xicidaili.py 文件(这就是爬虫文件) 3.编写items.py

Scrapy框架实战-妹子图爬虫

喜夏-厌秋 提交于 2020-04-26 05:52:01
Scrapy这个成熟的爬虫框架,用起来之后发现并没有想象中的那么难。即便是在一些小型的项目上,用scrapy甚至比用requests、urllib、urllib2更方便,简单,效率也更高。废话不多说,下面详细介绍下如何用scrapy将妹子图爬下来,存储在你的硬盘之中。关于Python、Scrapy的安装以及scrapy的原理这里就不作介绍,自行google、百度了解学习。 一、开发工具 Pycharm 2017 Python 2.7 Scrapy 1.5.0 requests 二、爬取过程 1、创建mzitu项目 进入"E:\Code\PythonSpider>"目录执行scrapy startproject mzitu命令创建一个爬虫项目: 1 scrapy startproject mzitu 执行完成后,生产目录文件结果如下: 1 ├── mzitu 2 │ ├── mzitu 3 │ │ ├── __init__ .py 4 │ │ ├── items.py 5 │ │ ├── middlewares.py 6 │ │ ├── pipelines.py 7 │ │ ├── settings.py 8 │ │ └── spiders 9 │ │ ├── __init__ .py 10 │ │ └── Mymzitu.py 11 │ └── scrapy.cfg 2