gecko

postman设置token等关联参数

别说谁变了你拦得住时间么 提交于 2021-02-19 20:54:34
登陆时登录成功后服务器会返回一个token,这个token作为第二步骤的入参;第二个步骤请求成功后服务器会返回一个新token,然后这个token作为第三步骤的入参!如此一来的话,要用postman做接口测试,那么就要解决token这个参数的关联问题: 第一,首先将这三个要测试的接口写成collection: 第二,要设置postman的环境,设置名称,url,以及token(只需要设置key就行),如下图: 第三步,在Postman软件的Tests中写以下代码,设置环境变量 第四步,修改第二以及第三个接口的入参的tokend值,格式用双花括号:{{token}} 格式 到此就设置完成了,我们选择登陆接口点击send,此时token就会显示在环境变量中了,这时第二个接口就可以执行了;然后再执行第三个接口,此时这个流程就可以跑通了! 总结:其实像这样的1步骤产生token,2步骤关联1步骤的token,3步骤关联2步骤的token,4步骤关联3步骤的token ,这种情况我也是第一次接触,这种情况与我司的项目不同,我司项目中只要token有效期内就行,不会存在步骤间这种紧密的依赖关系。 如果把这种项目的接口写成自动化脚本的话也比较冗长,因为我要在一个py中同时从步骤1写到步骤4.这样代码比较长了,代码如下: #coding:utf-8 import requests,unittest

pyinstaller and geckodriver generate issue after compile to exe

a 夏天 提交于 2021-02-19 06:24:05
问题 I hope i will get help here. I'm writing program who will read and export to txt 'devices live logging events' every two minutes. Everything works fine until i generate exe file. What is more interesting, program works on my enviroment(geckodriver and python libraries installed), but does not work on computers without python enviroment. Even if I generate exe with --onedir. Any ideas or tips? part of code is below(without tkinter): browser = webdriver.Firefox() def logs(): global writing

滑块验证码打码

有些话、适合烂在心里 提交于 2021-02-13 20:25:20
import requests #++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++ # 滑块验证码打码 # 使用如下语句,可以用S代替requests发送get请求,如果请求的网址生成了cookie,则cookie会保存在S中,下次再用s请求会带上这个cookei s = requests.Session() # 找到一个接口,这个接口要返回gt 和challenge,请求他,获取challenge和gt source = s.get('http://gsxt.gzgs.gov.cn/registerValidate.jspx?t=1558493678554').json() print(source) gt = source['gt'] challenge = source['challenge'] # 将获取到的参数,传给极验,这里要包含用户名和密码,如果success是0,则后面要加上&model=1 second = s.get('http://jiyanapi.c2567.com/shibie?user=wangshang&pass=a706486a&return=json&ip=&gt='+gt+'&challenge='+challenge+'&model=1')

从浏览器渲染原理,浅谈回流重绘与性能优化

こ雲淡風輕ζ 提交于 2021-02-13 19:03:41
[TOC] 前言 “回流(重排)”和“重绘”基本上算是前端的高频词之一,你可以在各个文章及面试题中见到,我们在讨论这个词的时候,其实讨论的是浏览器的渲染流程。 所以在讨论“回流重绘”之前,我们还需要掌握一些知识;在它之中,我们还需要更深入一点;在这之后,我们还要懂得怎么去把理论结合到项目实践中去。 通过这篇文章,你可以学习到的知识: 1、追本溯源,“回流”和“重绘”这个词是如何引出的,在了解这两个词之前我们还需要了解什么 2、浏览器的渲染流程,“回流”和“重绘”的原理 3、优化浏览器渲染性能,减少“回流”和“重绘”,动手将这些优化应用到实际开发中 浏览器的渲染引擎 浏览器的主要组件有:用户界面、浏览器引擎、渲染引擎、网络、用户界面后端、JavaScript解释器、数据存储。 浏览器的主要功能就是向服务器发出请求,在浏览器窗口中展示您选择的网络资源。浏览器在解析HTML文档,将网页内容展示到浏览器上的流程,其实就是渲染引擎完成的。 渲染流程 我们在这里讨论Gecko和Webkit这两种渲染引擎,其中Firefox 使用的是 Gecko,这是 Mozilla 公司“自制”的呈现引擎。而 Safari 和 Chrome 浏览器使用的都是 WebKit。 WebKit 渲染引擎的主流程: Mozilla 的 Gecko渲染引擎的主流程: 从图 3 和图 4 可以看出,虽然 WebKit 和

Python数据可视化:网易云音乐歌单

喜夏-厌秋 提交于 2021-02-13 18:54:13
网易云音乐2018年度听歌报告—遇见你,真好。 相信有不少人在上周,应该已经看过自己网易云音乐的年度报告了。 小F也是去凑凑热闹,瞅了一波自己的年度听歌报告。 那么你在云村又听了多少首歌,听到最多的歌词又是什么呢? 2018年你的年度歌手又是谁,哪些又是你最爱的歌呢? 不过相比去年,我的票圈并没有很多发自己年度报告的朋友。 不得不说,版权之争开始,网易云音乐似乎就在走下坡路。 很多喜欢的歌听不了,这应该是大家共同的痛点。 最大的印象就是周董的歌,在愚人节时下架了,原以为只是个玩笑,不想却是真的。 本次通过对网易云音乐华语歌单数据的获取,对华语歌单数据进行可视化分析。 可视化库不采用pyecharts,来点新东西。 使用matplotlib可视化库,利用这个底层库来进行可视化展示。 / 01 / 网页分析 01 歌单索引页 选取华语热门歌单页面。 获取歌单播放量,名称,及作者,还有歌单详情页链接。 本次一共获取了1302张华语歌单。 02 歌单详情页 获取歌单详情页信息,信息比较多。 有歌单名,收藏量,评论数,标签,介绍,歌曲总数,播放量,收录的歌名。 这里歌曲的时长、歌手、专辑信息在网页的iframe中。 需要用selenium去获取信息,鉴于耗时过长,小F选择放弃... 有兴趣的小伙伴,可以试一下哈... / 02 / 数据获取 01 歌单索引页 from bs4 import

爬虫实践

时光总嘲笑我的痴心妄想 提交于 2021-02-10 08:12:21
1.URL爬取   爬取一个站点的所有URL,大概有以下步骤:   1.确定好要爬取的入口链接。   2.根据需求构建好链接提取的正则表达式。   3.模拟成浏览器并爬取对应的网页。   4.根据2中的正则表达式提取出该网页中包含的链接。   5.过滤重复的链接。   6.后续操作,打印链接或存到文档上。   这里以获取 https://blog.csdn.net/ 网页上的链接为例,代码如下: 1 import re 2 import requests 3 4 def get_url(master_url): 5 header = { 6 ' Accept ' : ' text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8 ' , 7 ' Accept-Encoding ' : ' gzip, deflate, br ' , 8 ' Accept-Language ' : ' zh-CN,zh;q=0.9 ' , 9 ' Cache-Control ' : ' max-age=0 ' , 10 ' Connection ' : ' keep-alive ' , 11 ' Cookie ' : ' uuid_tt_dd=10_20323105120

Dropdown (Select tag, Combobox) not working in GeckoView implementation

不想你离开。 提交于 2021-01-27 19:35:44
问题 I'm implementing a Geckoview instance inside an android App. Everything looks to work properly and the Geckoview is able to load a URL. My problem is that if a site has a dropdown (select tag, Combobox) when I click in the arrow the options don't appear. I've tried using different versions and channels of the repositories (nightly, release, beta), and I'm still having the same problem. I've tried in different devices and versions of android. When I use browser that use Geckoview (Reference

爱看小说的有福了......

落爺英雄遲暮 提交于 2021-01-27 06:40:50
利用Python3 编写爬虫,从笔趣阁爬小说,可以下载到手机看。 运行截图: 程序实现如下: ---有点小bug,不过无所谓了。。。 import re import urllib.request import time import easygui as g # 输入地址 g.msgbox( " " ) msg = "输入小说地址,例如http://www.biquge.com.tw/0_213/" title = '爬虫' root = g.enterbox(msg , title) # 伪造浏览器 headers = { 'User-Agent' : 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) ' \ 'AppleWebKit/537.36 (KHTML, like Gecko)' \ ' Chrome/62.0.3202.62 Safari/537.36' } req = urllib.request.Request( url =root , headers =headers) with urllib.request.urlopen(req , timeout = 1 ) as response: # 大部分的涉及小说的网页都有charset='gbk',所以使用gbk编码 htmls = response.read().decode

04 Python网络爬虫 <<爬取get/post请求的页面数据>>之requests模块

自古美人都是妖i 提交于 2021-01-25 06:50:25
一. urllib库   urllib是Python自带的一个用于爬虫的库,其主要作用就是可以通过代码模拟浏览器发送请求。其常被用到的子模块在Python3中的为urllib.request和urllib.parse,在Python2中就是urllib和urllib2。 二.requests库   - 安装: pip install requests   - 作用: 就是用来模拟浏览器上网的   - 特点: 简单高效   - 使用流程:      * 指定url      * 发起请求      * 获取响应数据      * 持久化存储 三.爬取简单的网页    普通 get请求 1 # 爬取搜狗首页的页面数据 2 import requests 3 # 第一步指定url 4 url = ' https://www.sogou.com/ ' 5 # 第二步发送请求 6 response = request.get(url= url) 7 # 第三步获取响应数据 8 page_text = response.text # text返回的是字符串类型的数据(由响应体中的content-type,也可以是json) 9 # 第四步持久化存储 10 with open( ' ./souhu.html ' , ' w ' ,encoding= ' utf-8 ' ) as fp: 11

《大秦赋》最近很火!于是我用Python抓取了“相关数据”,发现了这些秘密......

给你一囗甜甜゛ 提交于 2021-01-24 13:05:47
↑ 关注 + 星标 ,每天学Python新技能 后台回复【 大礼包 】送你Python自学大礼包 前言 最近,最火的电视剧莫过于《大秦赋了》,自12月1日开播后,收获了不错的口碑。然而随着电视剧的跟新,该剧在网上引起了 激烈的讨论 ,不仅口碑急剧下滑,颇有 高开低走的趋势 ,同时该剧的评分也由最初的8.9分,下降到了现在的6.5分。 虽然我还没有看过这个新剧,但是对于小伙伴们讨论的内容,却颇有兴趣(主要还是大家老是讨 论这个剧)。因此, 我用Python爬取了《大秦赋》的相关数据 ,进行了一波分析。 数据爬取 巧妇难为无米之炊,做数据分析之前最重要的就是 “数据获取” 。于是,我准备用Python爬取豆瓣上的 短评数据 以及一些 评论时间信息 、 评价星级信息 。 关于数据的爬取主要说以下几个内容: 1) 关于翻页操作 第一页: https://movie.douban.com/subject/ 26413293 /comments?status=P 第二页: https://movie.douban.com/subject/ 26413293 /comments?start= 20 &limit= 20 &status=P&sort=new_score 第三页: https://movie.douban.com/subject/ 26413293 /comments?start=