不好意思,是nohup bin/connect-distributed.sh config/connect-distributed.properties > /dev/null 2>&1
,指令我刚才复制错了,但是为啥运行后没有显示信息出来一直卡在那
日志关不掉是&
引起的,异步执行,脱离了控制,可以改成以下的方式执行:
nohup bin/Conekt Distribut. Shkonfiger/Conneket-Distribut. Properdis > /dev/null 2>&1&
补充一个,如果需要加入一个新的控制平面
节点,则需要为控制平面加入命令重新创建一个新密钥。只需三个简单步骤即可完成:
使用 kubeadm init phase upload-certs --upload-certs
在已运行的主节点中重新上传证书。这将生成一个新的证书密钥。
使用 kubeadm token create --print-join-command
在已运行的主节点中打印 join
命令。
加入新的控制平面节点:$JOIN_COMMAND_FROM_STEP2 --control-plane --certificate-key $KEY_FROM_STEP1
.
这对旧版本的 Kubernetes 可能不起作用,但我用新版本试了一下,确实有效。
一般是docker的原因导致的。
一个可行的解决方案是重新启动 Docker 服务,然后重新运行 kubeadm reset
:
sudo systemctl restart docker.service
sudo kubeadm reset
检查 docker 的日志:
journalctl -ul docker
你看下kafka集群的配置文件,是否设置了auto.create.topics.enable=false
。
如果有,就设置为ture,当topic不存在,导致的,允许它自动创建。
或者你也可以手动创建topic:
bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 2 --partitions 4 --topic test
$ kubectl wait --for=condition=complete --timeout=600s job/myjob
Kafka有5个核心API:
Producer API
允许应用程序发送数据流到kafka集群中的topic。Consumer API
允许应用程序从kafka集群的topic中读取数据流。Streams API
允许从输入topic转换数据流到输出topic。Connect API
通过实现连接器(connector),不断地从一些源系统或应用程序中拉取数据到kafka,或从kafka提交数据到宿系统(sink system)或应用程序。Admin API
用于管理和检查topic,broker和其他Kafka对象。具体可参考:kafka接口API