别再单机玩 ZooKeeper 了!集群部署全攻略来了

前言

你是不是还在用单机版 ZooKeeper 跑测试?./zkServer.sh start一敲,连上localhost:2181,一切看似风平浪静——但只要服务一重启,数据就清空;节点一宕机,整个系统就瘫痪。这根本不是ZooKeeper的真实模样!

ZooKeeper的真正价值,在于它的 高可用、强一致、自动容灾——而这些能力,只有在集群模式下才能生效。无论是Kafka、HBase、Dubbo还是自研分布式系统,生产环境无一例外都依赖ZooKeeper集群来充当“分布式协调中枢”。

本篇将带你从零开始,手把手搭建一个真正可用的三节点ZooKeeper集群。

  • 配置文件怎么写?
  • myid 到底是什么?
  • 如何验证Leader/Follower角色?

遇到“Error contacting service”怎么办?所有坑我们都踩过,所有命令都亲测有效。别再单机玩ZooKeeper了——是时候进入高可用的世界了!

image-20251205103527547

1.前提条件

准备三台虚拟机,并列出对应的IP地址和主机名,如下图所示

IP Hostname
192.168.42.140 zookeeper1
192.168.42.145 zookeeper2
192.168.42.146 zookeeper3

在虚拟机分别对hostname进行命名:

hostnamectl set-hostname zookeeper1  //修改hostname
hostname  //查看hostname

image-20251204153434057

image-20251204153539525

image-20251204153551879

2.环境准备(3虚拟机都要做)

关闭防火墙

systemctl stop firewalld    //停止firewalld防火墙
systemctl disable firewalld   //disable防火墙,使其开机不自启
systemctl status firewalld    //查看firewalld是否已经关闭

image-20251204153720707配置操作系统(SELINUX修改成disabled):

vi /etc/sysconfig/selinux

image-20251204153820960

设置本机IP地址与MAC地址

vi /etc/sysconfig/network-scripts/ifcfg-ens33
  • BOOTPROTO的值修改成static
  • 文末加上对应的IP地址与MAC地址等数据
  • MAC 地址查看方法:ip link show ens33

image-20251204154615776

添加主机名与映射关系

192.168.42.140 zookeeper1
192.168.42.145 zookeeper2
192.168.42.146 zookeeper3

image-20251204155338255

3.安装zookeeper(三台虚拟机都要操作)

3.1环境准备

  • jvm环境
  • JDK 必须是7或以上版本
java -version

149b1d82094224db59959c7d7c10b8c8

3.2.下载安装

zookeeper 官网:Apache ZooKeeper
最新稳定版下载地址:Apache Downloads

下载完后,将压缩包上传到linux环境中,我这边上传到/shan路径:

dd0fa6d9d8c3be9ae8d48cba0d9e2381

对压缩包进行解压:

tar -zxvf apache-zookeeper-3.7.1-bin.tar.gz

d02b62095642e432bb7e77eb069401b5

重命名:

mv apache-zookeeper-3.7.1-bin/ zookeeper

328f816e419fefa040579c2deb731fa0

3.3 配置

进入zookeeper目录下的conf目录,将目录中的zoo_sample.cfg改成zoo.cfg:

mv zoo_sample.cfg zoo.cfg

a513c5c58d43e5e8f1b2f23c9cb67dd2

在zookeeper目录下新建一个zkData文件夹

mkdir zkData

f606f45cb3374302bfa3c93f53b72300

回到zoo.cfg中,对其进行修改,将dataDir的路径换成我们刚刚新建的zkData的路径

vim zoo.cfg

8c29ef2a142f497bfc4ad80ea0fd03f0

3.3.启动测试

进入bin目录下,启动服务端:

./zkServer.sh start

b165240c1b5d76c1ef38b5eb80f5435e

jps查看进程:

jps

b165240c1b5d76c1ef38b5eb80f5435e

回到zookeeper目录下,启动客户端:

bin/zkCli.sh

183801c4d401c70b746141db86804128

3.4.退出

quit

de0533544db1e1ae509bbc2742ff1ffe

3.5关闭客户端

./zkServer.sh stop

4.配置zookeeper集群

添加环境变量

export ZK_HOME=/shan/zookeeper
export PATH=$PATH:$ZK_HOME/bin

对zookeeper/conf 中的zoo.cfg修改

server.1=192.168.42.140:2888:3888
server.2=192.168.42.145:2888:3888
server.3=192.168.42.146:2888:3888

image-20251204160155080

image-20251204160122040

进入zkData中,修改myid文件

vi myid

image-20251204160334456

5.zookeeper集群测试

启动各个服务器的zookeeper

./zkServer.sh start 

启动成功的被选举为zookeeper3被选举为leader而zookeeper2和zookeeper1成为了follower:

image-20251204161224379

至此,zookeeper集群搭建成功啦~

6.zookeeper简单使用

登录到节点:

./zkCli.sh -server 127.0.0.1:2181

使用help来查看zookeeper客户端命令:

image-20251204162227722

ls [watch] : 查看zookeeper节点,默认情况下只存在一个zookeeper节点:

image-20251204165711393

  • -s:顺序节点,顺序是累加的,由 zookeeper 提供
  • -e:临时节点,服务器断开,然后重新连接服务器之后该节点会消失
ls /
ls /zookeeper
create -e /znode01 001
create -e -s /znode02 002
create /znode03 003
create -s /znode04 004
ls /

image-20251204170044014

断开 zookeeper 后台服务之后,再次连接,可以看到根节点下的临时节点 znode01、znode02 已经消失了,但是由于 znode03、znode04 是持久节点,所以还继续存在:

image-20251204170124456

查看节点值:

get /znode03

image-20251204170213778

获取节点的状态体:

stat /znode03

image-20251204170310662

修改节点值:

set /znode03 10086

image-20251204170356626

删除节点,zookeeper中有两种删除的方式:

  • delete [version]:类似于 Linux 中删除某一个文件
  • rmr path:类似于递归删除文件夹

image-20251204170512533

leader创建了一个文件,follower也会创建:

leader:

image-20251204170723532

follower:

image-20251204170748622

image-20251204170759473

在现实开发或测试场景中,你本地虚拟机里运行的ZooKeeper服务地址是 192.168.42.145:2181,但该 IP 仅限内网访问,外部设备(比如你的手机、公司电脑,或云服务器)无法直接连接。这时,你可以借助 Cpolar 实现内网穿透:只需在 ZooKeeper所在机器上执行 cpolar,Cpolar 就会为你分配一个公网地址。之后,无论你在世界哪个角落,都可以像这样连接:

./zkCli.sh -server 3.tcp.cpolar.io:12345

跟我一起来安装cpolar吧!

7.安装cpolar内网穿透工具

cpolar 可以将你本地电脑中的服务(如 SSH、Web、数据库)映射到公网。即使你在家里或外出时,也可以通过公网地址连接回本地运行的开发环境。

❤️以下是安装cpolar步骤:

官网在此:https://www.cpolar.com

使用一键脚本安装命令:

sudo curl https://get.cpolar.sh | sh

image-20250814101639846

安装完成后,执行下方命令查看cpolar服务状态:(如图所示即为正常启动)

sudo systemctl status cpolar

22e5adfaf290a17fc3384bb296055259

Cpolar安装和成功启动服务后,在浏览器上输入虚拟机主机IP加9200端口即:【ip:9200】访问Cpolar管理界面,使用Cpolar官网注册的账号登录,登录后即可看到cpolar web 配置界面,接下来在web 界面配置即可:

打开浏览器访问本地9200端口,使用cpolar账户密码登录即可,登录后即可对隧道进行管理。

8a6698b1bf26d64ba3645827fbfb1c29

8.配置公网地址

通过配置,你可以在本地 WSL 或 Linux 系统上运行 SSH 服务,并通过 Cpolar 将其映射到公网,从而实现从任意设备远程连接开发环境的目的。

  • 隧道名称:可自定义,本例使用了:zookeeper,注意不要与已有的隧道名称重复
  • 协议:tcp
  • 本地地址:
  • 端口类型:随机临时TCP端口
  • 地区:China Top

image-20251205112010088

创建成功后,打开左侧在线隧道列表,可以看到刚刚通过创建隧道生成了公网地址,接下来就可以在其他电脑或者移动端设备(异地)上,使用任意一个地址在终端中访问即可。

  • tcp 表示使用的协议类型

  • 2.tcp.cpolar.top是 Cpolar 提供的域名

  • 10518是随机分配的公网端口号

image-20251205112023894

通过Cpolar提供的公网地址和端口,ZooKeeper就可以在公网访问啦

./zkCli.sh -server 2.tcp.cpolar.top:10518

image-20251205143421041

image-20251205143433382

9.保留固定TCP公网地址

使用cpolar为其配置TCP地址,该地址为固定地址,不会随机变化。

选择区域和描述:有一个下拉菜单,当前选择的是“China Top”。
右侧输入框,用于填写描述信息。
保留按钮:在右侧有一个橙色的“保留”按钮,点击该按钮可以保留所选的TCP地址。
列表中显示了一条已保留的TCP地址记录。

  • 地区:显示为“China Top”。

  • 地址:显示为“31.tcp.cpolar.top:11780”。

image-20251205153835094

登录cpolar web UI管理界面,点击左侧仪表盘的隧道管理——隧道列表,找到所要配置的隧道zookeeper,点击右侧的编辑

image-20251205155525955

修改隧道信息,将保留成功的TCP端口配置到隧道中。

  • 端口类型:选择固定TCP端口
  • 预留的TCP地址:填写保留成功的TCP地址

点击更新

image-20251205155549999

创建完成后,打开在线隧道列表,此时可以看到随机的公网地址已经发生变化,地址名称也变成了保留和固定的TCP地址。

image-20251205155611969

最后测试一下固定的地址是否好用,测试命令:

./zkCli.sh -server 31.tcp.cpolar.top:11780

image-20251205155631474

image-20251205155644311

总结

单机ZooKeeper只适合学习和调试,真正的分布式协调服务必须运行在集群之上。通过本文的步骤,你可以快速搭建一个稳定、高可用的ZooKeeper集群,为你的 Kafka、Dubbo或自研分布式系统打下坚实基础。

别再“单机玩耍”了——是时候让ZooKeeper在集群中真正“活”起来!

感谢您对本篇文章的喜爱,有任何问题欢迎留言交流。cpolar官网-安全的内网穿透工具 | 无需公网ip | 远程访问 | 搭建网站

Share:

发表回复

目录

On Key

推荐文章