Trident

web前端开发学校分享前端一些小知识点

那年仲夏 提交于 2020-08-12 06:45:26
  一,主流浏览器及内核   Chrome——Webkit/blink   IE ——Trident   Firfox ——Gecko   Safari—— Webkit   Opera—— presto   二,css权重   !importent ——Infinity(正无穷)   行间样式 ——1000   id ——100   class/属性/伪类 ——10   标签/为元素 ——1   通配符—— 0   css的优先级取决于权重,权重间的进制是256.   三,行级 块级 行级块 元素   行级元素:1内容决定元素大小 2无法通过css改变宽高(span em a strong……)   块级元素:1独占一行 2可以改变宽高 (p div ul li form address……)   行级块元素:内容决定大小 可以改变宽高 (img)   四,定位   绝对定位:absolute:脱离原来位置,以最近父级定位,如果没有以文档顶端定位   相对定位:relative:保留自己以前的位置,并且以自己以前位置定位   五,margin俩bug   1,margin-top塌陷:子div在父div中 子div margin-top无效,除非子div margin-top值大于父级的,而且此时还带动父级一起移动。   父级div上边框消失了一样,给父级加上一个上边框可以解决

基础爬虫小案例:约会吧小姐姐照片,联系方式随手可得(附源码)

馋奶兔 提交于 2020-08-07 13:12:25
前言 百度贴吧是以兴趣主题聚合志同道合者的互动平台,同好网友聚集在这里交流话题、展示自我、结交朋友。贴吧中有的帖子当中有用户上传的图片,今天跟着老师把约会吧全吧的图片给爬取下来吧 预先清理磁盘哦~~ 本文亮点: 1、分析页面(静态or动态) 2、两层数据解析 3、海量图片数据保存 环境介绍: python 3.6 pycharm requests parsel(xpath) 爬虫的一般思路 1、确定爬取的url路径,headers参数 2、发送请求 -- requests 模拟浏览器发送请求,获取响应数据 3、解析数据 -- parsel 转化为Selector对象,Selector对象具有xpath的方法,能够对转化的数据进行处理 4、保存数据 开始我们的案例吧 步骤 1、导入工具 import requests import parsel 2、确定爬取的url路径,headers参数 base_url = ' https://tieba.baidu.com/f?ie=utf-8&kw=%E7%BE%8E%E5%A5%B3&fr=search ' headers = { ' User-Agent ' : ' Mozilla/5.0 (Windows NT 10.0; WOW64; Trident/7.0; rv:11.0) like Gecko ' } 3、发送请求 --

PHP判断客户端浏览器类型

让人想犯罪 __ 提交于 2020-08-06 19:46:20
代码如下 <?php /** * 判断浏览器名称和版本 */ function get_user_browser () { if ( empty ($_SERVER[ 'HTTP_USER_AGENT' ])) { return 'error!' ; } if ((strpos($_SERVER[ 'HTTP_USER_AGENT' ], 'MSIE' ) == false ) && (strpos($_SERVER[ 'HTTP_USER_AGENT' ], 'Trident' ) !== FALSE )) { return 'Internet Explorer 11.0' ; } if (strpos($_SERVER[ 'HTTP_USER_AGENT' ], 'MSIE 10.0' ) != false ) { return 'Internet Explorer 10.0' ; } if (strpos($_SERVER[ 'HTTP_USER_AGENT' ], 'MSIE 9.0' ) != false ) { return 'Internet Explorer 9.0' ; } if (strpos($_SERVER[ 'HTTP_USER_AGENT' ], 'MSIE 8.0' ) != false ) { return 'Internet Explorer 8

WEB前端第十三课——浏览器内核、位置

别等时光非礼了梦想. 提交于 2020-08-06 09:20:02
1.浏览器内核及前缀   在CSS中新的属性标准尚未明确的情况下,各浏览器厂商对新属性的支持情况也不相同,这个阶段会对属性加厂商前缀进行区分。   根据不同的浏览器内核,CSS前缀有所不同,最基本的浏览器内核有四种,其他内核都是基于此四种进行再研发的。   ① Gecko内核,前缀为“-moz-”,火狐浏览器   ② Webkit内核,前缀是“-webkit-”,也叫谷歌内核,Chrome浏览器最先开发使用,Safari浏览器也使用该内核           目前,国内很多浏览器也使用了webkit内核,如360极速、世界之窗、猎豹等   ③ Trident内核,前缀为“-ms-”,也称 IE内核   ④ Presto内核,前缀是“-o-”,目前只有Opera使用   代码实例 <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <title>CSS浏览器内核</title> <style> div { width: 500px; height: 500px; background-color:orange; border: 36px solid rgba(255,255,255,0.5); margin: 60px auto; padding: 50px; font-size: 200px; font

python爬虫成长之路(三):基础爬虫架构及爬取证券之星全站行情数据

别等时光非礼了梦想. 提交于 2020-05-08 04:20:54
爬虫成长之路(一)里我们介绍了如何爬取证券之星网站上所有A股数据,主要涉及网页获取和页面解析的知识。爬虫成长之路(二)里我们介绍了如何获取代理IP并验证,涉及了多线程编程和数据存储的知识。此次我们将在前两节的基础上,对证券之星全站的行情数据进行爬取。第一节的思路爬一个栏目的数据尚可,爬上百个栏目的数据工作量就有点大了。下面我们先介绍下基础的爬虫架构。 本文主要包含爬虫框架六大基础模块,分别为爬虫调度器、URL下载器、URL管理器、HTML下载器、HTML解析器、数据存储器。功能分析如下 爬虫调度器:主要负责统筹其他四个模块的工作。 URL下载器:主要负责下载需要爬取数据的URL链接。 URL管理器:负责管理URL链接,维护已经爬取的URL集合和未爬取的URL集合,提供获取新URL链接的接口。 HTML下载器:用于从URL管理器中获取未爬取的URL链接并下载HRML网页。 HTML解析器:用户从HTML下载器中获取已经下载的HTML网页,解析出有效数据交给数据存储器。 数据存储器:用于将HTML解析器解析出来的数据通过文件或者数据库的形式储存起来。 为了方便理解,以下是基础爬虫框架运行流程示意图 此处介绍文件夹,下面,我们对这6大模块进行详细的介绍。 一、URL下载器 URL下载器包含两步,首先下载网站左侧导航栏的URL,然后通过导航栏的URL获取每个子栏目包含的链接列表。

java+lodop+vue+热敏打印机,打印图片

故事扮演 提交于 2020-05-08 02:19:02
1.根据需求生成图片模板,详情见 https://www.cnblogs.com/xiaokangk/p/11151774.html 2.下载lodop并进行安装(安装步骤详情百度) 3.安装热敏打印机驱动 (我的以扫码哥X8为例,安装步骤可以百度) 4.编写lodop.js var CreatedOKLodop7766 = null; //====判断是否需要安装CLodop云打印服务器:==== export function needCLodop() { try { var ua = navigator.userAgent; if (ua.match(/Windows\sPhone/i) != null) return true; if (ua.match(/iPhone|iPod/i) != null) return true; if (ua.match(/Android/i) != null) return true; if (ua.match(/Edge\D?\d+/i) != null) return true; var verTrident = ua.match(/Trident\D?\d+/i); var verIE = ua.match(/MSIE\D?\d+/i); var verOPR = ua.match(/OPR\D?\d+/i); var verFF

ElasticSearch 命令执行漏洞(CVE-2014-3120)

只谈情不闲聊 提交于 2020-05-04 05:47:24
ElasticSearch简介 ElasticSearch是一个基于Lucene构建的开源,分布式,RESTful搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。支持通过HTTP使用JSON进行数据索引。 CVE-2014-3120原理 ElasticSearch有脚本执行的功能,使用的引擎为MVEL,该引擎没有做任何的防护,或者沙盒包装,所以可以直接执行任意代码。 由于在ElasticSearch的默认配置下,动态脚本执行功能处于打开状态,导致用户可以构造恶意的请求包,执行任意代码。 漏洞测试 ElasticSearch版本:v1.1.1 利用该漏洞之前,es至少需要存在一条数据,通过以下请求包创建数据: POST /mitian/mitian6/ HTTP/1.1Host: 192.168.0.16:9200Accept: */*Accept-Language: enUser-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:60.0) Gecko/20100101 Firefox/60.0Connection: closeContent-Type: application/x-www-form-urlencodedContent-Length: 22{ "name": "kjsx"}

常见的前端开发面试题(附答案)

假如想象 提交于 2020-04-30 11:29:55
1.讲讲输入完网址按下回车,到看到网页这个过程中发生了什么 a. 域名解析 b. 发起TCP的3次握手 c. 建立TCP连接后发起http请求 d. 服务器端响应http请求,浏览器得到html代码 e. 浏览器解析html代码,并请求html代码中的资源 f. 浏览器对页面进行渲染呈现给用户 2.谈谈你对前端性能优化的理解 a. 请求数量:合并脚本和样式表,CSS Sprites,拆分初始化负载,划分主域 b. 请求带宽:开启GZip,精简JavaScript,移除重复脚本,图像优化,将icon做成字体 c. 缓存利用:使用CDN,使用外部JavaScript和CSS,添加Expires头,减少DNS查找,配置ETag,使AjaX可缓存 d. 页面结构:将样式表放在顶部,将脚本放在底部,尽早刷新文档的输出 e. 代码校验:避免CSS表达式,避免重定向 3.前端 MV*框架的意义 早期前端都是比较简单,基本以页面为工作单元,内容以浏览型为主,也偶尔有简单的表单操作,基本不太需要框架。 随着 AJAX 的出现,Web2.0的兴起,人们可以在页面上可以做比较复杂的事情了,然后前端框架才真正出现了。 如果是页面型产品,多数确实不太需要它,因为页面中的 JavaScript代码,处理交互的绝对远远超过处理模型的,但是如果是应用软件类产品,这就太需要了。 长期做某个行业软件的公司

JS中的循环---最全的循环总结

霸气de小男生 提交于 2020-04-29 03:14:16
在讲循环的之前,先知道一下循环结构的执行步骤    1、声明循环变量;   2、判断循环条件;   3、执行循环体操作;   4、更新循环变量;   5、然后循环执行2-4,直到条件不成立,跳出循环。 1、while循环 var num = 1;//1、声明循环变量 while (num<=10){//2、判断循环条件; document.write(num+"<br />");//3、执行循环体操作; num++;//4、更新循环变量; } while循环()中的表达式,运算结果可以是各种类型,但是最终都会转为真假,转换规则如下。   ①Boolean:true为真,false为假;   ②String:空字符串为假,所有非空字符串为真;   ③Number:0为假,一切非0数字为真;   ④null/Undefined/NaN:全为假;   ⑤Object:全为真。 2、do-while循环 while循环特点:先判断后执行;   do-while循环特点:先执行再判断,即使初始条件不成立,do-while循环至少执行一次; var num = 10; do{ document.write(num+"<br />");//10 9 8 7 6 5 4 3 2 1 0 num--; }while(num>=0); document.write(num);//-1 3、for循环 

《JavaScript DOM 编程艺术(第2版)》- 综合笔记

梦想与她 提交于 2020-04-28 03:16:52
1.1 JavaScript 的起源 JavaScript 是 Netscape 公司与 Sun 公司合作开发的。 JavaScript 是 ECMAScript 标准的一种实现,但在一般表述中,这两者是指同一种编程语言。 1.2 DOM DOM(Document Object Model,文档对象模型),是一套对文档的内容进行抽象和概念化的方法。 通过 DOM 可以对文档内的某些实际内容进行查询和操控。 1.3 浏览器战争 1.3.1 DHTML DHTML(Dynamic HMTL,动态 HTML),是描述 HTML、CSS 和 JavaScript 技术组合的术语。其背后的含义是: 利用 HTML 把网页标记为各种元素; 利用 CSS 设置元素样式和它们显示的位置; 利用 JavaScript 实时地操控页面和改变样式。 1.3.2 浏览器之间的冲突 Netscape 公司和 Microsoft 公司的浏览器的 DOM 的差异,导致了当时 DHTML 技术的难以实现。 1.4 制定标准 W3C 于 1998 年 10 月完成了“第 1 级 DOM”(DOM Level 1)标准,这种标准化的 DOM 可以让 任何一种 程序设计语言对使用 任何一种 标记语言编写出来的 任何一种 文档进行操控。 1.4.1 浏览器以外的考虑 DOM 是一种 API(Application