Beats: Filebeat和pipleline processors
我们知道我们可以使用Filebeat很方便地把我们的log数据收集进来并直接写入到我们的Elasticsearch之中。 就像我们上面的这个图显示的一样。这样我们就不需要另外一个Logstash的部署了。Logstash可以很方便地帮我们对数据进行处理,比如对数据进行转换, 丰富数据等等。有一种情况,我们不想部署自己的Logstash,但是我们还是像对我们的数据进行一些处理,那么我们该怎么办?我们其实可以利用ingest node所提供的Pipeline帮我们对数据进行处理。 Ingest node 如果大家还不知道如何配置我们的node为一个ingest node的话,可以参阅我之前的文章“ Elasticsarch中的一些重要概念:cluster, node, index, document, shards及replica ”。我们需要在Elasticsearch中的配置文件elasticsearch.yml文件中配置: node.ingest: true ingest node提供了在对文档建立索引之前对其进行预处理的功能: 接收节点拦截索引或批量API请求 运用转换(transformation) 将文档传递回索引或批量API 什么是pipeline呢? 如果大家想对pipleline有更多的了解,请参阅我的文章“ 如何在Elasticsearch中使用pipeline