Kafka的副本复制策略

  • 时间:
  • 浏览:3

Kafka的每个topic portition的都是有另兩个leader,因此有0~n个follower。每个follower都是像另兩个普通的consumer一样,从leader消费上的message,也本来我从leader上拉取message,因此把拉取到的message写入到自己的日志中,写入自己的日志都是(ack)通知leader写入成功。

Kafka会把topic partitions的数据克隆到一组server上,当另兩个Server宕机时都要做自动的故障恢复(automatic failover)。实际是把日志克隆到一组机器上,一种 基于日志的克隆具体情况机(这里就不讨论你这个 )。

当Producer向leader写入一根绳子 新的message时,一般是我不要 等follower的通知就返回,因此认为写入成功了。这时这条消息不可能 还如此被任何的f