Confluent/KRaft

来自Gea-Suan Lin's Wiki
Gslin讨论 | 贡献2023年5月31日 (三) 06:42的版本 →‎設定
跳到导航 跳到搜索

Confluent/KRaftApache Kafka在2.8之后推出的功能,由Confluent包装的版本,目的是为了取代Apache ZooKeeper的功能。

设定

Controller

这边是三controller机的设定。

先把/etc/kafka/kraft/controller.properties复制到/etc/kafka/server.properties下,然后把以下的设定值改成对应的值:

process.roles=controller
node.id=1
controller.quorum.voters=1@kafka-controller-1.example.com:19092,2@kafka-controller-2.example.com:19092,3@kafka-controller-3.example.com:19092
listeners=CONTROLLER://kafka-controller-1.example.com:19092
controller.listener.names=CONTROLLER
listener.security.protocol.map=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL
log.dirs=/opt/kraft-controller-logs

其中需要特别讲解的是:

  • node.id每台机器都不同。
  • controller.quorum.votersn@hostname:19092格式中,n就是node.id,而hostname为可以连到的位置(可以是IP)。

接著先产生--cluster-id=后面需要用到的值,三台的值都会是同一个:

kafka-storage random-uuid

接著透过kafka-storage/opt/kraft-controller-logs这个目录初始化,这边会用sudo -u cp-kafka要确保目录权限正确:

sudo -u cp-kafka kafka-storage format --config=/etc/kafka/server.properties --cluster-id=xxxxxxxxxxxxxxxxxxxxxx

相关条目

外部连结