safari

CSS几种简单方法实现文字竖向排版

旧街凉风 提交于 2020-05-08 21:05:57
1.一个句子的竖向排列 如图: 1. 2. [html] view plain copy <!DOCTYPE html > < html > < head > < title >test </ title > < meta charset= "UTF-8" > </ head > < style > .one { width: 20px; margin: 0 auto; line-height: 24px; font-size: 20px; } .two { width: 15px; margin: 0 auto; line-height: 24px; font-size: 20px; word-wrap: break-word;/*英文的时候需要加上这句,自动换行*/ } </ style > < body > < div class= "one" >我是竖列排版 </ div > < div class= "two" >I AM ENGLISH </ div > </ body > </ html > 2.多个句子竖向排列(如古诗) 如图: 1. 2. 3. [html] view plain copy <!DOCTYPE html > < html > < head > < title >test </ title > < meta charset= "UTF-8" > </

Logstash filter 插件之 grok

▼魔方 西西 提交于 2020-05-08 20:33:27
本文简单介绍一下 Logstash 的过滤插件 grok。 Grok 的主要功能 Grok 是 Logstash 最重要的插件。它可以解析任意文本并把它结构化。因此 Grok 是将非结构化的日志数据解析为可查询的结构化数据的好方法 。 这个工具非常适合 syslog 日志、apache 和其他 web 服务器日志、mysql 日志,以及那些通常为人(而不是计算机)编写的日志格式。 Grok 使用正则表达式提取日志记录中的数据,这也正是 grok 强大的原因。Grok 使用的正则表达式语法与 Perl 和 Ruby 语言中的正则表达式语法类似。你还可以在 grok 里预定义好命名正则表达式,并在稍后(grok 参数或者其他正则表达式里)引用它。 Grok 语法 语法格式: %{SYNTAX:SEMANTIC} SYNTAX 是文本匹配的正则表达式模式。比如 NUMBER 模式可以匹配到 3.15 之类的数字;IP 模式可以匹配到 192.168.0.1 等 IP 地址。 SEMANTIC 是为匹配的文本提供的标识符。比如,3.15 可以是事件的 duration(持续时间),因此可以简单地将其称为 duration;字符串 192.168.0.1 用来标识发出请求的 client。 因此和用下面的模式来结构化日志记录: %{NUMBER:duration} %{IP:client}

如何禁止chrome浏览器http自动转成https

徘徊边缘 提交于 2020-05-08 15:27:53
原文: https://blog.csdn.net/thewindkee/article/details/80668974 Chrome 浏览器 地址栏中输入 chrome://net-internals/#hsts 在 Delete domain security policies 中输入项目的 域名 ,并 Delete 删除 可以在 Query domain 测试是否删除成功 这里如果还是不行,请确保输入的是 域名 , 再清除浏览器缓存! Safari 浏览器 完全关闭 Safari 删除 ~/Library/Cookies/HSTS.plist 这个文件 重新打开 Safari 即可 极少数情况下,需要重启系统 Opera 浏览器 和 Chrome 方法一样 Firefox 浏览器 关闭所有已打开的页面 清空历史记录和缓存 地址栏输入 about:permissions 搜索项目域名,并点击 Forget About This Site 来源: oschina 链接: https://my.oschina.net/u/4301815/blog/4270317

《Nginx

泄露秘密 提交于 2020-05-07 19:05:10
一:log_format    - 概述     - log_format 用于管理 Nginx 的详细信息,日志管理等信息,很多都是基于这个来实现。    - 可配置参数 $remote_addr           客户端地址 $remote_user         客户端用户名称 $time_local         访问时间和时区 $request           请求的URI和HTTP协议$http_host请求地址,即浏览器中你输入的地址(IP或域名) $statusHTTP         请求状态 $upstream_statusupstream   状态 $body_bytes_sent       发送给客户端文件内容大小 $http_refererurl       跳转来源 $http_user_agent         用户终端浏览器等信息 $ssl_protocolSSL        协议版本 $ssl_cipher           交换数据中的算法 $upstream_addr          后台upstream的地址,即真正提供服务的主机地址 $request_time          整个请求的总时间 $upstream_response_time    请求过程中,upstream响应时间 二:核心模块内置变量    -

04,Python网络爬虫之requests模块(1)

时光怂恿深爱的人放手 提交于 2020-05-07 18:30:47
引入 Requests 唯一的一个 非转基因 的 Python HTTP 库,人类可以安全享用。 警告 :非专业使用其他 HTTP 库会导致危险的副作用,包括:安全缺陷症、冗余代码症、重新发明轮子症、啃文档症、抑郁、头疼、甚至死亡。 今日概要 基于requests的get请求 基于requests模块的post请求 基于requests模块ajax的get请求 基于requests模块ajax的post请求 综合项目练习:爬取国家药品监督管理总局中基于中华人民共和国化妆品生产许可证相关数据 知识点回顾 常见的请求头 常见的相应头 https协议的加密方式 今日详情 - 基于如下5点展开requests模块的学习 什么是requests模块 requests模块是python中原生的基于网络请求的模块,其主要作用是用来模拟浏览器发起请求。功能强大,用法简洁高效。在爬虫领域中占据着半壁江山的地位。 为什么要使用requests模块 因为在使用urllib模块的时候,会有诸多不便之处,总结如下: 手动处理url编码 手动处理post请求参数 处理cookie和代理操作繁琐 ...... 使用requests模块: 自动处理url编码 自动处理post请求参数 简化cookie和代理操作 ...... 如何使用requests模块 安装: pip install requests 使用流程

爬虫 --- 01 anaconda安装,http与https, 爬虫初始

给你一囗甜甜゛ 提交于 2020-05-07 18:25:56
一.Anaxonda的安装   1. 双击 Anaconda3-5.0.0-Windows-x86_64.exe 文件   2.下一步   3. ① 打开 cmd 窗口,录入 jupyter notebook 指令, 如果没有显示找不到命令且没有报错即可表示安装成功! ②在开始菜单中显示 二.HTTP 与HTTPS   1.HTTP协议   ①概念 1 .官方概念:     HTTP协议是Hyper Text Transfer Protocol(超文本传输协议)的缩写, 是用于从万维网(WWW:World Wide Web )服务器传输超文本到本地浏览器的传送协议。   2.白话概念:     HTTP协议就是服务器(Server)和客户端(Client)之间进行数据交互(相互传输数据)的一种形式。   ②HTTP工作原理   ③注意事项     - HTTP允许传输任意类型的数据对象。正在传输的类型由Content- Type加以标记。      - HTTP是无连接:无连接的含义是限制每次连接只处理一个请求。服务器处理完客户的请求, 并收到客户的应答后,即断开连接。采用这种方式可以节省传输时间。      - HTTP是媒体独立的:这意味着,只要客户端和服务器知道如何处理的数据内容, 任何类型的数据都可以通过HTTP发送。客户端以及服务器指定使用适合的MIME-

Python网络爬虫之cookie处理、验证码识别、代理ip、基于线程池的数据爬去

风格不统一 提交于 2020-05-07 17:37:29
本文概要 session处理cookie proxies参数设置请求代理ip 基于线程池的数据爬取 引入 有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使用之前requests模块常规操作时,往往达不到我们想要的目的,例如: # !/usr/bin/env python # -*- coding:utf-8 -*- import requests if __name__ == " __main__ " : # 张三人人网个人信息页面的url url = ' http://www.renren.com/289676607/profile ' # 伪装UA headers= { ' User-Agent ' : ' Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36 ' , } # 发送请求,获取响应对象 response = requests.get(url=url,headers= headers) # 将响应内容写入文件 with open( ' ./renren.html ' , ' w ' ,encoding= ' utf-8 ' )

python网络爬虫——requests高阶部分:模拟登录与验证码处理

家住魔仙堡 提交于 2020-05-07 17:36:54
云打码平台【处理各类验证码的平台】 注册:普通用户和开发者用户 登录: 登录普通用户(查看余额) 登录开发者用户: 创建一个软件:我的软件->创建软件 下载示例代码:开发者中心->下载最新的DLL->pythonHttp示例代码下载 一般点击登录按钮的请求都是post请求 cookie的作用,服务器使用cookie记录客户端的状态:经典:免密登录 服务端创建,客户端存储 有有效时长,动态变化 引入 有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使用之前requests模块常规操作时,往往达不到我们想要的目的,例如: import requests if __name__ == " __main__ " : # 张三人人网个人信息页面的url url = ' http://www.renren.com/289676607/profile ' # 伪装UA headers= { ' User-Agent ' : ' Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36 ' , } # 发送请求,获取响应对象 response = requests

Python爬虫之requests模块(2)

主宰稳场 提交于 2020-05-07 17:36:33
一.今日内容 session处理cookie proxies参数设置请求代理ip 基于线程池的数据爬取 二.回顾 xpath的解析流程 bs4的解析流程 常用xpath表达式 常用bs4解析方法 三.引入 有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使用之前requests模块常规操作时,往往达不到我们想要的目的,例如: #!/usr/bin/env python # -*- coding:utf-8 -*- import requests if __name__ == "__main__": #张三人人网个人信息页面的url url = 'http://www.renren.com/289676607/profile' #伪装UA headers={ 'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36', } #发送请求,获取响应对象 response = requests.get(url=url,headers=headers) #将响应内容写入文件 with open('./renren.html','w

判断浏览器的类型$_SERVER['HTTP_USER_AGENT']和语言$_SERVER['HTTP_ACCEPT_LANGUAGE']

时间秒杀一切 提交于 2020-05-07 16:43:43
判断浏览器类型: $_SERVER["HTTP_USER_AGENT"] 判断浏览器类型的具体程序如下: <? php if ( strpos ( $_SERVER ["HTTP_USER_AGENT"],"MSIE 8.0" )) echo "Internet Explorer 8.0" ; else if ( strpos ( $_SERVER ["HTTP_USER_AGENT"],"MSIE 7.0" )) echo "Internet Explorer 7.0" ; else if ( strpos ( $_SERVER ["HTTP_USER_AGENT"],"MSIE 6.0" )) echo "Internet Explorer 6.0" ; else if ( strpos ( $_SERVER ["HTTP_USER_AGENT"],"Firefox/3" )) echo "Firefox 3" ; else if ( strpos ( $_SERVER ["HTTP_USER_AGENT"],"Firefox/2" )) echo "Firefox 2" ; else if ( strpos ( $_SERVER ["HTTP_USER_AGENT"],"Chrome" )) echo "Google Chrome" ; else if ( strpos (