虚拟机:
export KAFKA_HOME=/usr/local/kafka_2.11-0.8.2.1 export PATH=$KAFKA_HOME/bin:$PATH
scp -r ~/.bashrc hadoop@slave1:/home/hadoop/ scp -r ~/.bashrc hadoop@slave2:/home/hadoop/ scp -r /usr/local/kafka_2.11-0.8.2.1 hadoop@slave1:/usr/local/ scp -r /usr/local/kafka_2.11-0.8.2.1 hadoop@slave2:/usr/local/
一定要保证每个节点broker.id=的值唯一
kafka-server-start.sh -daemon /usr/local/kafka_2.11-0.8.2.1/config/server.properties
pkill -9 -f server.properties
kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 3 --topic test
kafka-topics.sh --list --zookeeper localhost:2181
kafka-console-producer.sh --broker-list localhost:9092 --topic test crtl + c 结束
kafka-console-consumer.sh --zookeeper localhost:2181 --topic test --from-beginning crtl + c 结束
kafka-topics.sh --describe --zookeeper localhost:2181 --topic test
下面解释一下这些输出。第一行是对所有分区的一个描述,然后每个分区都会对应一行,因为我们只有一个分区所以下面就只加了一行。
bin/kafka-topics.sh --zookeeper localhost:2181 --delete --topic topic_name 登陆zookeeper 删除test的元数据 rmr /brokers/topics/test 删除数据文件(log.dirs 参数指定) rm -rf /tmp/kafka-logs/test
./kafka-run-class.sh kafka.tools.ConsumerOffsetChecker --group nirvana_enterprise --topic fang_topic --zookeeper 10.57.19.201:2181,10.57.19.180:2181,10.57.19.248:2181