Storm 分发策略+与Kafka集成

匿名 (未验证) 提交于 2019-12-02 23:34:01

Storm的分发策略

Storm当中的分组策略,一共有八种:

所谓的grouping策略就是在Spout与Bolt、Bolt与Bolt之间传递Tuple的方式。总共有八种方式:

1)shuffleGrouping(随机分组)随机分组;将tuple随机分配到bolt中,能够保证各task中处理的数据均衡;

(按照字段分组,在这里即是同一个单词只能发送给一个Bolt)

按字段分组; 根据设定的字段相同值得tuple被分配到同一个bolt进行处理;

举例:builder.setBolt("mybolt", new MyStoreBolt(),5).fieldsGrouping("checkBolt",new Fields("uid"));

说明:该bolt由5个任务task执行,相同uid的元组tuple被分配到同一个task进行处理;该task接收的元祖字段是mybolt发射出的字段信息,不受uid分组的影响。

(广播发送,即每一个Tuple,每一个Bolt都会收到)广播发送:所有bolt都可以收到该tuple

(全局分组,将Tuple分配到task id值最低的task里面)全局分组:tuple被发送给bolt的同一个并且最小task_id的任务处理,实现事务性的topology

(随机分派)不分组:效果等同于shuffle Grouping.

(直接分组,指定Tuple与Bolt的对应发送关系)

直接分组:由tuple的发射单元直接决定tuple将发射给那个bolt,一般情况下是由接收tuple的bolt决定接收哪个bolt发射的Tuple。这是一种比较特别的分组方法,用这种分组意味着消息的发送者指定由消息接收者的哪个task处理这个消息。 只有被声明为Direct Stream的消息流可以声明这种分组方法。而且这种消息tuple必须使用emitDirect方法来发射。消息处理者可以通过TopologyContext来获取处理它的消息的taskid (OutputCollector.emit方法也会返回taskid)。

本地或者随机分组,优先将数据发送到本机的处理器executor,如果本机没有对应的处理器,那么再发送给其他机器的executor,避免了网络资源的拷贝,减轻网络传输的压力

(自定义的Grouping)

kafka与storm1.1.3集成

第一步:导入jar包


<dependency>


第二步:编写我们的主函数入口程序


public class KafkStormTopo {

public static void main(String[] args) throws Exception {

KafkaSpoutConfig.Builder<String, String> kafkaSpoutConfigBuilder = KafkaSpoutConfig.builder("hadoop-001:9092,hadoop-002:9092,hadoop-003:9092", "four");

//所有关于kafka的设置都在kafkaSpoutConfigBuilder 里面配置

//控制kafka的offset的消费策略

kafkaSpoutConfigBuilder.setFirstPollOffsetStrategy(KafkaSpoutConfig.FirstPollOffsetStrategy.UNCOMMITTED_LATEST);

kafkaSpoutConfigBuilder.setGroupId("kafkaToStorm");

kafkaSpoutConfigBuilder.setOffsetCommitPeriodMs(1000L);

KafkaSpoutConfig<String, String> kafkaSpoutConfig = kafkaSpoutConfigBuilder.build();

//kafkaSpout需要KafkaSpoutConfig

KafkaSpout<String, String> kafkaSpout = new KafkaSpout<String, String>(kafkaSpoutConfig);

TopologyBuilder builder = new TopologyBuilder();

builder.setSpout("kafkaSpout",kafkaSpout);

builder.setBolt("printlnBolt",new PrintlnBolt()).localOrShuffleGrouping("kafkaSpout");

}


第三步:开发我们的PrintlnBolt作为消息处理


public class PrintlnBolt extends BaseRichBolt {    @Override    public void prepare(Map map, TopologyContext topologyContext, OutputCollector outputCollector) {    }    @Override    public void execute(Tuple input) {        System.out.println("printbolt tuple"+input.getValues());    }    @Override    public void declareOutputFields(OutputFieldsDeclarer outputFieldsDeclarer) {    }}

创建topic


kafka-topics.sh --create --zookeeper hadoop-001:2181 --replication-factor 3 --partitions 1 --topic four


创建生产者



发送消息与接收消息

发送消息

接收消息

setFirstPollOffsetStrategy:允许你设置从哪里开始消费数据. 这在故障恢复和第一次启动spout的情况下会被使用

EARLIEST :无论之前的消费情况如何,spout会从每个kafka partition能找到的最早的offset开始的读取

LATEST :无论之前的消费情况如何,spout会从每个kafka partition当前最新的offset开始的读取

UNCOMMITTED_EARLIEST (默认值) :spout 会从每个partition的最后一次提交的offset开始读取. 如果offset不存在或者过期, 则会依照 EARLIEST进行读取.

UNCOMMITTED_LATESTspout 会从每个partition的最后一次提交的offset开始读取, 如果offset不存在或者过期, 则会依照 LATEST进行读取

标签
易学教程内所有资源均来自网络或用户发布的内容,如有违反法律规定的内容欢迎反馈
该文章没有解决你所遇到的问题?点击提问,说说你的问题,让更多的人一起探讨吧!