content

This content should also be served over HTTPS

你说的曾经没有我的故事 提交于 2019-11-30 18:16:53
HTTPS 是 HTTP over Secure Socket Layer,以安全为目标的 HTTP 通道,所以在 HTTPS 承载的页面上不允许出现 http 请求,一旦出现就是提示或报错: Mixed Content: The page at 'https://domain.com/w/a?id=074ac65d-70db-422d-a6d6-a534b0f410a4' was loaded over HTTPS, but requested an insecure image 'http://img.domain.com/images/2016/5/3/2016/058c5085-21b0-4b1d-bb64-23a119905c84_cf0d97ab-bbdf-4e25-bc5b-868bdfb581df.jpg'. This content should also be served over HTTPS. 很多运营对 https 没有技术概念,在填入的数据中不免出现 http 的资源,出现疏忽和漏洞也是不可避免的。 解决办法一:CSP设置upgrade-insecure-requests W3C工作组考虑到了我们升级HTTPS的艰难,在2015年4月份就出了一个Upgrade Insecure Requests 的草案( http://www.w3.org/TR

re模块

六月ゝ 毕业季﹏ 提交于 2019-11-30 16:31:28
目录 正则表达式: 匹配过程: 贪婪模式及非贪婪模式: 反斜杠困扰: re模块中的功能函数: re.match(pattern, string[, flags]): re.search(pattern, string[, flags])函数 re.findall(pattern, string[, flags])函数(常用) e.split(pattern, string[, maxsplit])函数 re.sub(pattern, repl, string[, count])函数 re.subn(pattern, repl, string,[, count][, flags])函数 分组函数: 注意事项: 正则表达式: --字符串匹配,进行字符串处理 匹配过程: 依次拿出表达式和文本中的字符比较,如果每一个字符都能匹配,则匹配成功;一旦有匹配不成功的字符则匹配失败 一, 贪婪模式及非贪婪模式: --匹配尽可能多的字符;非贪婪的则相反,总是尝试匹配尽可能少的字符 反斜杠困扰: 需要匹配文本中的字符 \ ,那么使用编程语言表示的正则表达式里将需要4个反斜杠 \\\\ :前两个和后两个分别用于在编程语言里转义成反斜杠,转换成两个反斜杠后再在正则表达式里转义成一个反斜杠 ()元字符 (分组) 也就是分组匹配,()里面的为一个组也可以理解成一个整体 如果()后面跟的是特殊元字符如 (abc

android系统架构及组件介绍

心已入冬 提交于 2019-11-30 12:25:08
1、andoid系统架构采用分层架构思想,包括应用程序层,应用框架层,系统库和android运行时,lInux内核 2、组件介绍 (1)view:andoid应用中所有用户界面元素都是使用View和ViewGroup对象构建而成,view对象用于屏幕上绘制可供用户交互的内容 (2)activity是一个应用程序组件,表示用户界面的单一屏幕,用户可以用来交互为了完成某项任务,activity相当于web应用程序中的页面,activity提供一个可视化区域,在当前区域中可以放置各种控件,一个app一般由于若干个activity组成,一般会有一个主activity (3)Service是一个可以在后台执行长时间运行操作而不提供用户界面的应用组件,例如常见的音乐播放器 (4)BroadcastReceiver是一种用于响应系统范围广播通知的组件 广播分为两类: a、普通广播:完全异步,可以在同一时刻被所有接受者接收到 b、有序广播:接受者按照预先声明的优先顺序一次接受广播 (5)Intent负责组件的启动,想启动某个组件,必须向系统传递一则消息,Intent就是一个消息传递对象,一般有以下用途: a、启动activity:activity表示应用中的一个屏幕,通过将intent传递给startActity(),就可以启用新的activity实例 b、启动服务:通过将 Intent 传递给

python爬取知乎专栏用户评论信息

浪子不回头ぞ 提交于 2019-11-30 12:10:20
工具:python3,pycharm,火狐浏览器 模块:json,requests,time 登录知乎,进入专栏。 进入后随便选择一个专栏,我们选择一个粉丝比较多的。点击进去。 其实,我们可以爬取这个专栏的所有文章,打开开发者工具F12,点击刷新 找到这条数据,点击响应可以看到json数据,仔细观察这些数据,我们就会发现正好是这个专栏里作者的所有文章。但我们今天并不获取。如果想获取的话,可以自己实现,方法简单,同获取评论信息原理一样。 进入正题,获取一篇文章的评论,我们随意打开一篇评论比较多的文章。 可以看到许多评论信息,我们要抓取的就是评论者的id,昵称,以及评论内容。 在这个页面打开开发者工具,按F12,并进行刷新。找到这条数据。点击响应查看一下 我们找到要获取的内容了! 我们会发现一个问题,会发现这条数据的请求网址会很长, https://www.zhihu.com/api/v4/articles/19991701/comments?include=data[*].author,collapsed,reply_to_author,disliked,content,voting,vote_count,is_parent_author,is_author,algorithm_right&order=normal&limit=20&offset=0&status=open

jq轮播图插件

三世轮回 提交于 2019-11-30 12:08:00
<!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <meta http-equiv="X-UA-Compatible" content="ie=edge"> <title>pl封装滚动轮播图插件</title> </head> <style> *{margin: 0px ;padding: 0px;} .content{ width: 700px;height: 350px; margin: 0px auto;margin-top: 100px; position: relative; overflow: hidden; } #ulBox{ width: 1000%; height: 350px; position: absolute; left: 0; top: 0; overflow: hidden; } li{ list-style: none; } #ulBox>li{ float: left; width: 700px; height: 350px; } #ulBox>li>img { width: 100%; height: 100%; } #liItem

JS-实现横向手风琴

强颜欢笑 提交于 2019-11-30 11:54:16
横向手风琴-- 鼠标悬浮某一张图片,图片显示,其他图片影藏。 <div class="content"> <ul> <li class="current"><img src="./img4/1.jpg" alt="" height="400"></li> <li><img src="./img4/2.jpg" alt="" height="400"></li> <li><img src="./img4/3.jpg" alt="" height="400"></li> <li><img src="./img4/4.jpg" alt="" height="400"></li> <li><img src="./img4/5.jpg" alt="" height="400"></li> </ul> </div> <style> *{ margin: 0; padding: 0; } .content { width: 1000px; height: 400px; margin: 100px auto; overflow: hidden; box-shadow: 0 0 2px 2px gray; } ul{ width: 100%; height: 100%; list-style: none; display: flex; } li{ width: 70px; height: 100%;

CountDownLatch 应用

核能气质少年 提交于 2019-11-30 10:58:26
package com.hiberate.huijpa; import java.io.*; import java.util.ArrayList; import java.util.List; import java.util.concurrent.CountDownLatch; public class Client { private int[] nums; public Client(int nums) { this.nums = new int[nums]; } public int calc(String line, int index, CountDownLatch latch){ String[] nus = line.split(","); int total=0; for (String num : nus) { total += Integer.parseInt(num); } System.out.println(Thread.currentThread()+" 结果:"+total); nums[index] = total; latch.countDown(); return total; } public int sum(){ int total=0; for (int num : nums) { total += num; } return

python网络爬虫——scrapy框架持久化存储

你说的曾经没有我的故事 提交于 2019-11-30 09:46:46
1.基于终端指令的持久化存储 保证爬虫文件的parse方法中有可迭代类型对象(通常为列表or字典)的返回,该返回值可以通过终端指令的形式写入指定格式的文件中进行持久化操作。 执行输出指定格式进行存储:将爬取到的数据写入不同格式的文件中进行存储 scrapy crawl 爬虫名称 -o xxx.json scrapy crawl 爬虫名称 -o xxx.xml scrapy crawl 爬虫名称 -o xxx.csv 2.基于管道的持久化存储 scrapy框架中已经为我们专门集成好了高效、便捷的持久化操作功能,我们直接使用即可。要想使用scrapy的持久化操作功能,我们首先来认识如下两个文件: items.py:数据结构模板文件。定义数据属性。 pipelines.py:管道文件。接收数据(items),进行持久化操作。 持久化流程: 1.爬虫文件爬取到数据后,需要将数据封装到items对象中。 2.使用yield关键字将items对象提交给pipelines管道进行持久化操作。 3.在管道文件中的process_item方法中接收爬虫文件提交过来的item对象,然后编写持久化存储的代码将item对象中存储的数据进行持久化存储 4.settings.py配置文件中开启管道 - 将糗事百科首页中的段子和作者数据爬取下来,然后进行持久化存储 - 爬虫文件:qiubaiDemo.py #

MySQL—04—MySQL的其他对象

不问归期 提交于 2019-11-30 07:14:57
一、 MySQL 中的其他对象 1. 索引 MySQL 索引的建立对于 MySQL 的高效运行是很重要的,索引可以大大提高 MySQL 的检索速度。 1.1MySQL 中的索引类型 • 普通索引 • 唯一索引 • 主键索引 • 组合索引 • 全文索引 1.2 普通索引 是最基本的索引,它没有任何限制。 在创建索引时,可以指定索引长度。length 为可选参数,表示索引的长度,只有字符串 类型的字段才能指定索引长度,如果是 BLOB 和 TEXT 类型,必须指定 length。 创建索引时需要注意: 如果指定单列索引长度,length 必须小于这个字段所允许的最大字符个数。 查询索引:SHOW INDEX FROM table_name 1.2.1 直接创建索引 CREATE INDEX index_name ON table(column(length)) 示例 为 emp3 表中的 name 创建一个索引,索引名为 emp3_name_index create index emp3_name_index ON emp3(name) 1.2.2 修改表添加索引 ALTER TABLE table_name ADD INDEX index_name (column(length)) 示例 修改 emp3 表,为 addrees 列添加索引,索引名为 emp3_address

Scrapy框架的基本组成及功能使用

本秂侑毒 提交于 2019-11-30 06:17:20
1.什么是scrapy? Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。框架的本质就是集成各种功能、具有很强通用性的项目模板。 2.安装    Linux: pip3 install scrapy   Windows:===》见Twisted安装 a. pip3 install wheel b. 下载twisted http: / / www.lfd.uci.edu / ~gohlke / pythonlibs / #twisted c. 进入下载目录,执行 pip3 install Twisted‑ 17.1 . 0 ‑cp35‑cp35m‑win_amd64.whl d. pip3 install pywin32 e. pip3 install scrapy 3.基础使用===》相关命令都是在命令行执行   3.1.创建项目:scrapy startproject 项目名称   3.2.创建爬虫应用程序:       cd project_name(进入项目目录)       scrapy genspider 应用名称 爬取网页的起始url (例如:scrapy genspider qiubai www.qiushibaike.com)       在步骤2执行完毕后,会在项目的spiders中生成一个应用名的py爬虫文件   3.3