grok

亚马逊12亿美元收购自动驾驶明星公司Zoox,马斯克嘲讽贝索斯抄袭狗

天涯浪子 提交于 2020-08-10 13:23:35
昨日,亚马逊宣布收购自动驾驶创业公司 Zoox。自动驾驶领域迎来洗牌? 机器之心报道,参与:魔王、亚洲。 5 月份,亚马逊收购 Zoox 的消息就已传得沸沸扬扬。昨日,这笔交易最终落定,根据 The Information 和金融时报消息, 此次交易的金额逾 12 亿美元 。 作为一家成立于 2014 年的自动驾驶明星初创公司,这个价格令无数人唏嘘。 要知道,Zoox 创业期间已筹集了近 10 亿美元的资金,在 2018 年的估值就达到 32 亿美金,投资方包括 Grok Ventures、Aid Partners,腾讯与 IDG 也曾参与投资。 根据亚马逊的公告,Zoox 将继续作为独立业务存在,现任首席执行官 Aicha Evans 以及 CTO 和联合创始人 Jesse Levinson 继续担任职务,他们的整体使命也将保持不变。 这是亚马逊目前对自动驾驶技术的最大投资。去年二月,无人驾驶汽车创业公司 Aurora 获得了 5.3 亿美元的 B 轮投资,亚马逊参与了此次投资。2012 年 3 月,亚马逊以 7.75 亿美元收购了仓储机器人创业公司 Kiva Systems。 有趣的是,在消息公布之后,特斯拉老板 Elon Musk 公开在推特上嘲讽贝索斯为 copycat(山寨、跟屁虫)。 看来,继航空领域之后,马斯克与贝索斯在自动驾驶领域的斗争也即将搬上台面。 Zoox

日志收集时的时间戳处理

徘徊边缘 提交于 2020-08-07 21:10:59
Logstash在处理数据的时候,会自动生成一个字段@timestamp,默认该字段存储的是Logstash 收到 消息/事件(event)的时间。很多时候我们用ELK是处理日志的,日志里面一般都是有时间的。而且很多时候我们只关注日志里面的时间,而不关注Logstash收到这条日志的时间。这个时候,一种方法是再增加一个字段,用来存储日志里面的时间,这种很简单;另一种方法是使用日志中的时间替换掉@timestamp字段默认的时间。本文介绍第二种方法并总结一些关键知识点。 一、Nginx配置$time_local 以Logstash采集Nginx日志为例,格式如下: log_format main '$remote_addr - [$time_local] "$request_method $uri $query_string" $status $body_bytes_sent "$http_referer" "$http_user_agent" $request_time $upstream_response_time'; 175.167 . 136.165 - [ 19/May/2020:17:44:03 +0800 ] " POST /upload - " 200 65 " https://static.cam.com/2020/comicfood/v3/index.html "

日志分析logstash插件-grok详解

非 Y 不嫁゛ 提交于 2020-07-28 18:06:12
一般系统或服务生成的日志都是一大长串。每个字段之间用空格隔开。logstash在获取日志是整个一串获取,如果把日志中每个字段代表的意思分割开来在传给elasticsearch。这样呈现出来的数据更加清晰,而且也能让kibana更方便的绘制图形。 Grok 是 Logstash 最重要的插件。它的主要作用就是将文本格式的字符串,转换成为具体的结构化的数据,配合正则表达式使用。 grok表达式 下面针对Apache日志来分割处理 filter { if [type] == "apache" { grok { match => ["message" => "%{IPORHOST:addre} %{USER:ident} %{USER:auth} \[%{HTTPDATE:timestamp}\] \"%{WORD:http_method} %{NOTSPACE:request} HTTP/%{NUMBER:httpversion}\" %{NUMBER:status} (?:%{NUMBER:bytes}|-) \"(?:%{URI:http_referer}|-)\" \"%{GREEDYDATA:User_Agent}\""] remove_field => ["message"] } date { match => [ "timestamp", "dd/MMM/YYYY:HH:mm

Logstash Fork Patterns 中文

╄→尐↘猪︶ㄣ 提交于 2020-07-25 09:57:05
前情提要 1.产品增加了日志字段 ,其中包含中文,相应的fork patterns也需要修改 Patterns # Grok Pattern %{NOTSPACE:resp_msg} # Custom Patterns NOTSPACE \S* 测试工具以及参考链接 a Ruby regular expression editor logstash grok-patterns 来源: oschina 链接: https://my.oschina.net/venn0126/blog/4354770

ELK集群部署

筅森魡賤 提交于 2020-07-24 06:45:42
ELK简介 1.ElasticSearch简称ES,它是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析。它是一个建立在全文搜索引擎 Apache Lucene 基础上的搜索引擎,使用 Java 语言编写。 2.Logstash是一个具有实时传输能力的数据收集引擎,用来进行数据收集(如:读取文本文件)、解析、过滤,并将数据发送给ES。 3.Kibana为 Elasticsearch 提供了分析和可视化的 Web 平台。它可以在 Elasticsearch 的索引中查找,交互数据,并生成各种维度表格、图形。 环境准备 cat /etc/redhat-release CentOS Linux release 7.7.1908 (Core) 角色划分 NODE IP(自己设置) 节点类型 elk-node1 192.168.1.123 数据、主节点(安装elasticsearch、logstash、kabana、filebeat) elk-node2 192.168.1.124 数据节点(安装elasticsearch、filebeat) elk-node3 192.168.1.125 数据节点(安装elasticsearch、filebeat) 安装jdk11 (两种安装方式) ------------------------------二进制安装--------

filter-grok,dissect匹配数据

末鹿安然 提交于 2020-05-08 20:33:45
Grok(正则捕获)、Dissect(切分): grok使用正则匹配来提取非结构化日志数并据解析为结构化和可查询的内容。 dissect使用多种定界符(非数字和字母的符号,split只能一次只能使用一种定界符)来提取非结构化日志数据。 dissect与grok的不同之处在于它不使用正则表达式并且速度更快。当数据可靠地重复时,解析很有效。当文本结构因行而异时,grok是更好的选择。当线路的一部分可靠重复时,您可以同时使用dissect和grok作为混合用例。dissect过滤可以解构重复行的部分。grok过滤可以处理剩余的字段值,具有更多的正则表达式可预测。 自定义格式: (?<field_name>the pattern here) 示例: [root@node2006 logstash]# bin/logstash -e 'input{stdin{}}filter{grok{match => {"message" => "(?<request_time>\d+\.\d+)" }}}output{stdout{codec=>rubydebug}}' #匹配带有小数点的数字,这里得到的字段值是字符串类型。logstash中只有三种类型,string,integer,float。如果不指定类型,默认string 123.456 ... { "message" => "123.456",

ELK 经典用法—企业自定义日志收集切割和mysql模块

梦想与她 提交于 2020-05-08 02:14:08
ELK 经典用法—企业自定义日志收集切割和mysql模块 一、收集切割公司自定义的日志 很多公司的日志并不是和服务默认的日志格式一致,因此,就需要我们来进行切割了。 1、需切割的日志示例 2018-02-24 11:19:23,532 [143] DEBUG performanceTrace 1145 http://api.114995.com:8082/api/Carpool/QueryMatchRoutes 183.205.134.240 null 972533 310000 TITTL00 HUAWEI 860485038452951 3.1.146 HUAWEI 5.1 113.552344 33.332737 发送响应完成 Exception:(null) 2、切割的配置 在logstash 上,使用fifter 的grok 插件进行切割 input { beats { port => "5044" } } filter { grok { match => { "message" => "%{TIMESTAMP_ISO8601:timestamp} \[%{NUMBER:thread:int}\] %{DATA:level} (?<logger>[a-zA-Z]+) %{NUMBER:executeTime:int} %{URI:url} %{IP:clientip} %

14.2-ELK 经典用法—企业自定义日志收集切割和mysql模块

北城余情 提交于 2020-05-08 02:11:05
本文收录在 Linux运维企业架构实战系列 一、收集切割公司自定义的日志 很多公司的日志并不是和服务默认的日志格式一致,因此,就需要我们来进行切割了。 1、需切割的日志示例 2018-02-24 11:19:23,532 [143] DEBUG performanceTrace 1145 http://api.114995.com:8082/api/Carpool/QueryMatchRoutes 183.205.134.240 null 972533 310000 TITTL00 HUAWEI 860485038452951 3.1.146 HUAWEI 5.1 113.552344 33.332737 发送响应完成 Exception:(null) 2、切割的配置 在logstash 上,使用fifter 的grok 插件进行切割 input { beats { port => "5044" } } filter { grok { match => { "message" => "%{TIMESTAMP_ISO8601:timestamp} \[%{NUMBER:thread:int}\] %{DATA:level} (?<logger>[a-zA-Z]+) %{NUMBER:executeTime:int} %{URI:url} %{IP:clientip} %

ELKB 7.X 日志系统搭建

大憨熊 提交于 2020-05-05 19:24:16
目录 ELKB是什么 搭建ELKB系统 搭建过程中需要注意的问题 ELKB是什么 ELKB是目前比较流行的日志系统解决方案,是通过一套组件集合成的解决方案。这套组件分别为ElasticSearch,LogStash,Kibana,FileBeat。 各组件的作用如下: ElasticSearch(简称es):基于Apache Lucene构建,能对大容量的数据进行接近实时的存储、搜索和分析操作。 LogStatsh:数据收集额外处理和数据引擎。支持动态的从各种数据源搜集数据,并对数据进行过滤、分析、丰富、统一格式等操作,然后存储到用户指定的位置。 Kibanna:数据分析和可视化平台。通常与ElasticSearch配合使用,对其中数据进行搜索、分析和以统计图表的方式展示。 FileBeat:在需要采集日志数据的server上安装Filebeat,指定日志目录或日志文件后,Filebeat就能读取数据,发送到Logstash进行解析,也可以选择直接发送到ElasticSearch进行集中式存储和分析。 其中FileBeat只是Beat系列中常用的一种,其余的beat还有Packetbeat(搜集网络流量数据);Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据);Filebeat(搜集文件数据);Winlogbeat(搜集 Windows 事件日志数据)