Spark Streaming的Batch Duration优化

匿名 (未验证) 提交于 2019-12-02 23:43:01

Spark Streaming 是微批处理。


Durations.seconds(1000)设置的是sparkstreaming批处理的时间间隔,每个Batch Duration时间去提交一次job,如果job的处理时间超过Batch Duration,会使得job无法按时提交,随着时间推移,越来越多的作业被拖延,最后导致整个Streaming作业被阻塞,无法做到实时处理数据

这种情况


可以观察CPU,内存占用情况,判断是否可以通过提高硬件配置来保证性能
优化SparkStreaming的处理代码,缩短流程的执行时间
当然最简单的是试试改动batch Duration的大小,看看可不可以有所改善,一般这个值的大小如果能够使得Streaming作业刚好处理好上一个的批处理的数据,那么这个就是最优值

文章来源: https://blog.csdn.net/song_myth/article/details/92132017
标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!