Flink的DataSource三部曲之二:内置connector
【今日推荐】:为什么一到面试就懵逼!>>> 本文是《Flink的DataSource三部曲》系列的第二篇,上一篇 《Flink的DataSource三部曲之一:直接API》 学习了StreamExecutionEnvironment的API创建DataSource,今天要练习的是Flink内置的connector,即下图的红框位置,这些connector可以通过StreamExecutionEnvironment的addSource方法使用: 今天的实战选择Kafka作为数据源来操作,先尝试接收和处理String型的消息,再接收JSON类型的消息,将JSON反序列化成bean实例; Flink的DataSource三部曲文章链接 《Flink的DataSource三部曲之一:直接API》 《Flink的DataSource三部曲之二:内置connector》 《Flink的DataSource三部曲之三:自定义》 源码下载 如果您不想写代码,整个系列的源码可在GitHub下载到,地址和链接信息如下表所示(https://github.com/zq2599/blog_demos): 名称 链接 备注 项目主页 https://github.com/zq2599/blog_demos 该项目在GitHub上的主页 git仓库地址(https) https://github.com