Flink读写Kafka
/*--> */ /*--> */ Flink 读写 Kafka 在 Flink 中,我们分别用 Source Connectors 代表连接数据源的连接器,用 Sink Connector 代表连接数据输出的连接器。下面我们介绍一下 Flink 中用于读写 kafka 的 source & sink connector 。 Apache Kafka Source Connectors Apache Kafka 是一个分布式的流平台,其核心是一个分布式的发布 - 订阅消息系统,被广泛用于消费与分发事件流。 Kafka 将事件流组织成为 topics 。一个 topic 是一个事件日志( event-log ),保证读入事件的顺序为事件写入的顺序。为了实现可扩展, topic 可以被分为多个 partition ,并分布在集群中的各个节点中。但是在 topic 分区后,由于 consumers 可能会从多个 partition 读入数据,所以此时只能在 partition 级别保证事件的顺序。在 Kafka 中,当前读的位置称为偏移量( offset )。 可以通过 sbt 或 maven 构建 Flink Kafka connector 的依赖,下面是一个 sbt 的例子: // https://mvnrepository.com/artifact/org.apache.flink