topic

rocketMQ之三 集群概念和工作流程

岁酱吖の 提交于 2020-01-06 21:51:30
集群概念和工作流程 各个角色的介绍 producer:消息的发送者 consumer:消息的接受者 Broker:暂存和传输消息 NameServer:管理Broker Topic:区分消息的种类,一个发送者可以发送消息给一个或者多个Topic,一个消息的接受者可以订阅一个或者多个Topic消息 tag:消息的标签,和topic基本是这样的关系 Message Queue:相当于Topic的分区,用于并行发送和接受消息 集群的特点 NameServer是一个几乎无状态节点,可集群部署,节点之间无任何信息同步 Broker部署相对复杂,Broker分为Master和Slave,一个Master可以对应多个Slave,但是一个Slave只能对应一个Master, Master和Slave的对应关系通过制定相同的BrokerName,不同的BrokerId来定义,BorkerId为0表示Master,非0便是Slave, Mater也可以部署多个,每个Broker和NameServer集群中所有节点建立长连接,定时注册Topic信息到所有NameServer Producer和NameServer集群中的其中一份节点建立长连接(随机),定期从NameServer取Topic路由信息,并向Topic服务的Master 建立长连接,且定时想Master发送心跳,Product完全无状态

Kafka生产者各种启动参数说明

孤街醉人 提交于 2020-01-06 00:48:55
首先是启动一个生产者 final String kafkazk="localhost:9092"; String topic="testAPI"; Properties properties = new Properties() {{ put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, kafkazk); put(ProducerConfig.ACKS_CONFIG, "all"); put(ProducerConfig.RETRIES_CONFIG, 0); put(ProducerConfig.BATCH_SIZE_CONFIG, 16384); put(ProducerConfig.LINGER_MS_CONFIG, 1); put(ProducerConfig.BUFFER_MEMORY_CONFIG, 33554432); put(ProducerConfig.KEY_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization.StringSerializer"); put(ProducerConfig.VALUE_SERIALIZER_CLASS_CONFIG, "org.apache.kafka.common.serialization

ActiveMQ学习笔记(17)----Message高级特性(一)

老子叫甜甜 提交于 2020-01-03 20:28:06
1. Messaage Properties   ActiveMQ支持很多消息属性,具体可以参考   http://activemq.apache.org/activemq-message-properties.html   常见得一些属性说明:   1. queue得消息默认是持久化得   2. 消息得优先级默认是4.   3. 消息发送时设置了时间戳。   4. 消息的过期时间默认是永不过期,过期的消息进入DLQ,可以配置DLQ及其处理策略。   5. 如果消息是重发的,将会被标记出来。   6. JMSReplyTo标识响应消息发送到哪个queue.   7. JMSCorelationID标识此消息相关联的消息id,可以用这个标识把多个消息连接起来。   8. JMS同时也记录了消息重发的次数。默认是6次   9. 如果有一组相关联的消息需要处理,可以分组;只需要设置消息组的名字和这个消息的第几个消息。   10. 如果消息中一个事务环境,则TXID将会被设置。   11. 此外ActiveMQ在服务器端额外设置了消息入队和出队的时间戳。   12. ActiveMQ里消息属性的值,不仅可以用基本类型,还可以用List或Map类型 2. Advisory Message   Advisory Message是ActiveMQ自身的系统消息地址

impala paper笔记1

倾然丶 夕夏残阳落幕 提交于 2020-01-03 15:22:23
不生产博客,只是汉化别人的成果 目录 摘要 介绍 用户角度的impala 物理schema设计 sql 支持 架构 state distribution catalog service impala paper的链接 http://cidrdb.org/cidr2015/Papers/CIDR15_Paper28.pdf 摘要 impala是一个现代化,开源的mpp sql引擎架构,一开始就是为了处理hadoop环境上的数据。impala提供低延迟和高并发的query对于hadoop上的BI/OLAP,不像hive那样的批处理框架,这篇paper从使用者的角度阐述impala的总体架构和组件,简要说明Impala较别的sql on hadoop的优势 介绍 impala是开源的,最先进的mpp sql引擎,与hdaoop高度集成,高伸缩、高灵活。impala的目的是结合sql支持与传统数据库的多用户高性能(高并发)在hadoop上 不像别的系统,eg:postgre,impala是一个全新的引擎,由c++和java编写,拥有像hadoop一样的灵活性通过结合一些组件,eg:hdfs、hbase、hive metastore等等,并且能够读取常用的存储格式数据,eg:parquet、rcfile、avro等,为了降低延迟,没有使用类似mapreduce和远程拉取数据

Kafka 集群在马蜂窝大数据平台的优化与应用扩展

孤人 提交于 2020-01-03 14:28:10
马蜂窝技术原创文章,更多干货请订阅公众号:mfwtech Kafka 是当下热门的消息队列中间件,它可以实时地处理海量数据,具备高吞吐、低延时等特性及可靠的消息异步传递机制,可以很好地解决不同系统间数据的交流和传递问题。 Kafka 在马蜂窝也有非常广泛的应用,为很多核心的业务提供支撑。本文将围绕 Kafka 在马蜂窝大数据平台的应用实践,介绍相关业务场景、在 Kafka 应用的不同阶段我们遇到了哪些问题以及如何解决、之后还有哪些计划等。 Part.1 应用场景 从 Kafka 在大数据平台的应用场景来看,主要分为以下三类: 第一类是将 Kafka 作为数据库 ,提供大数据平台对实时数据的存储服务。从来源和用途两个维度来说,可以将实时数据分为业务端 DB 数据、监控类型日志、基于埋点的客户端日志 (H5、WEB、APP、小程序) 和服务端日志。 第二类是为数据分析提供数据源 ,各埋点日志会作为数据源,支持并对接公司离线数据、实时数据仓库及分析系统,包括多维查询、实时 Druid OLAP、日志明细等。 第三类是为业务方提供数据订阅 。除了在大数据平台内部的应用之外,我们还使用 Kafka 为推荐搜索、大交通、酒店、内容中心等核心业务提供数据订阅服务,如用户实时特征计算、用户实时画像训练及实时推荐、反作弊、业务监控报警等。 主要应用如下图所示: Part.2 演进之路 四个阶段

关于 FormData 和 URLSearchParams

核能气质少年 提交于 2020-01-03 07:19:35
一、FormData   FormData 接口提供了一种表示表单数据的键值对的构造方式,经过它的数据可以使用 XMLHttpRequest.send() 方法送出,本接口和此方法都相当简单直接。如果送出时的编码类型被设为 "multipart/form-data" ,它会使用和表单一样的格式。 如果你想构建一个简单的 GET 请求,并且通过 <form> 的形式带有查询参数,可以将它直接传递给 URLSearchParams 。 实现了 FormData 接口的对象可以直接在 for...of 结构中使用 二, URLSearchParams   URLSearchParams 接口定义了一些实用的方法来处理 URL 的查询字符串。一个实现了 URLSearchParams 的对象可以直接用在 for...of 结构中    1 var url = '?q=URLUtils.searchParams&topic=api'; 2 var searchParams = new URLSearchParams(paramsString); 3 for (let p of searchParams) { 4 console.log(p); 5 } 6 7 searchParams.has("topic") === true; // true 8 searchParams.get(

JavaScript的URLSearchParams方法

偶尔善良 提交于 2020-01-03 07:19:19
URLSearchParams 接口定义了一些实用的方法来处理 URL 的查询字符串。 一个实现了 URLSearchParams 的对象可以直接用在 for…of 结构中,不需要使用 entries() :for (var p of mySearchParams) 就等于 for (var p of mySearchParams.entries())。 链接到章节构造函数 URLSearchParams() 返回一个 URLSearchParams 对象。 链接到章节属性 该接口不继承任何属性。 链接到章节方法 此接口不继承任何方法。 URLSearchParams.append() 插入一个指定的键/值对作为新的搜索参数。 URLSearchParams.delete() 从搜索参数列表里删除指定的搜索参数及其对应的值。 URLSearchParams.entries() 返回一个iterator可以遍历所有键/值对的对象。 URLSearchParams.get() 获取指定搜索参数的第一个值。 URLSearchParams.getAll() 获取指定搜索参数的所有值,返回是一个数组。 URLSearchParams.has() 返回 Boolean 判断是否存在此搜索参数。 URLSearchParams.keys() 返回iterator 此对象包含了键/值对的所有键名

阿里云物联网 .NET Core 客户端 | CZGL.AliIoTClient:3. 订阅Topic与响应Topic

依然范特西╮ 提交于 2020-01-02 09:28:42
文档目录: 说明 1. 连接阿里云物联网 2. IoT 客户端 3. 订阅Topic与响应Topic 4. 设备上报属性 4.1 上报位置信息 5. 设置设备属性 6. 设备事件上报 7. 服务调用 8. 委托事件 9. 自定义委托事件方法 CZGL.AliIoTClient 将 Topic 分为五种 分别是:普通Topic、属性上报、属性下发、事件上报、服务调用,除了普通 Topic,每种 Topic 都有消息的发送、响应。 普通 Topic ,消息发送或,根据 MQTT 协议,SDK 严格保证消息能够到达另一端。 设备推送属性、事件等数据到服务器,则服务器要响应, 服务器推送(下发)数据到设备,则设备要响应。 当然,这些响应可有可无,无实质的影响。 每种、每个 Topic 都有特定的 MQTT 通讯地址,这些地址已经在 CZGL.AliIoTClient 中自动生成,你仅需填写普通 Topic 的通讯地址即可。 1) 订阅 Topic 订阅 Topic 前,需要在阿里云物联网定义相应的 Topic 以及设置 订阅 权限, 普通 Topic ,使用 string[] 包含列表,然后在调用连接方法时作为参数传入,亦可在连接服务器后,添加需要的订阅。 普通 Topic 可以动态添加,属于 热订阅 。 使用方法: // 设置要订阅的Topic、运行接收内容的Topic string[]

ROS_tutorial03:ROS_Node_Topic_Message

落花浮王杯 提交于 2020-01-02 05:19:17
ROS NODE 首先运行 roscore ,同时只能存在同一个 roscore 。如果出现无法连接的情况,在 /opt/ros/kinetic/setup.bash 文件的最后加上以下两行: export ROS_HOSTNAME=localhost export ROS_MASTER_URI=http://localhost:11311 然后起一个节点: rosrun turtlesim turtlesim_node 通过 rosnode list 来查看当前有哪些节点: 1 $ rosnode list 2 /rosout 3 /turtlesim 可以通过 rosnode info <node_name> 来查看节点信息,接收哪个topic的消息以及发送消息到哪个topic 1 #运行 2 $ rosnode info turtlesim 3 #结果 4 -------------------------------------------------------------------------------- 5 Node [/turtlesim] 6 Publications: 7 * /rosout [rosgraph_msgs/Log] 8 * /turtle1/color_sensor [turtlesim/Color] 9 * /turtle1/pose

kafka 消息队列

允我心安 提交于 2020-01-01 17:22:54
kafka是使用Java和Scala编写的一个快速可扩展的高吞吐量的分布式消息队列系统。 kafka将数据持久化存储到磁盘上,自带分区和副本机制,因而具有较好的持久化保证。 但是kafka的消息消费没有确认机制,可能因为consumer崩溃导致消息没有完成处理。因此不建议将kafka用于一致性较高的业务场景,kafka经常被用做日志收集和数据仓库之间的缓存。 比如将网站的浏览日志缓存到kafka,然后从kafka中取出批量写入ElasticSearch, Hive或者HBase等数据仓库中。这样做可以极大的减轻离线分析系统的负载。 架构简介 kafka架构中有下列角色参与: broker: kafka 集群中的服务器实例称为broker producer: 向broker发送消息的客户端 consumer: 向从borker中读取消息的客户端 zookeeper: 存储集群状态的注册中心,不处理具体消息。在负载均衡和集群扩展等功能中有重要作用。 接下来介绍kafka的逻辑模型: message: 消息是kafka通信的基本单元 topic: topic 在逻辑结构上类似于队列, 每条消息都属于一个 topic。 consumer group: 每个group中可以包含若干 consumer 实例,每个topic可以被多个consumer group 订阅。 消费者组拥有唯一的