「Confluent/KRaft」:修訂間差異
跳至導覽
跳至搜尋
第2行: | 第2行: | ||
== 設定 == | == 設定 == | ||
這邊是三controller機的設定。 | |||
先把<code>/etc/kafka/kraft/controller.properties</code>複製到<code>/etc/kafka/server.properties</code>下,然後把以下的設定值改成對應的值: | 先把<code>/etc/kafka/kraft/controller.properties</code>複製到<code>/etc/kafka/server.properties</code>下,然後把以下的設定值改成對應的值: | ||
第13行: | 第15行: | ||
listener.security.protocol.map=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL | listener.security.protocol.map=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL | ||
log.dirs=/opt/kraft-controller-logs | log.dirs=/opt/kraft-controller-logs | ||
</syntaxhighlight> | |||
接著先產生<code>--cluster-id=</code>後面需要用到的值,三台的值都會是同一個: | |||
<syntaxhighlight lang="bash"> | |||
kafka-storage random-uuid | |||
</syntaxhighlight> | |||
接著透過<code>kafka-storage</code>把<code>/opt/kraft-controller-logs</code>這個目錄初始化: | |||
<syntaxhighlight lang="bash"> | |||
sudo -u cp-kafka kafka-storage format --config=/etc/kafka/server.properties --cluster-id=xxxxxxxxxxxxxxxxxxxxxx | |||
</syntaxhighlight> | </syntaxhighlight> | ||
於 2023年5月31日 (三) 06:40 的修訂
Confluent/KRaft是Apache Kafka在2.8之後推出的功能,由Confluent包裝的版本,目的是為了取代Apache ZooKeeper的功能。
設定
這邊是三controller機的設定。
先把/etc/kafka/kraft/controller.properties
複製到/etc/kafka/server.properties
下,然後把以下的設定值改成對應的值:
process.roles=controller
node.id=1
controller.quorum.voters=1@kafka-controller-1.example.com:19092,2@kafka-controller-2.example.com:19092,3@kafka-controller-3.example.com:19092
listeners=CONTROLLER://kafka-controller-1.example.com:19092
controller.listener.names=CONTROLLER
listener.security.protocol.map=CONTROLLER:PLAINTEXT,PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL
log.dirs=/opt/kraft-controller-logs
接著先產生--cluster-id=
後面需要用到的值,三台的值都會是同一個:
kafka-storage random-uuid
接著透過kafka-storage
把/opt/kraft-controller-logs
這個目錄初始化:
sudo -u cp-kafka kafka-storage format --config=/etc/kafka/server.properties --cluster-id=xxxxxxxxxxxxxxxxxxxxxx