Установка ZooKeeper на ОС RHEL/CentOS
Введение
На данной странице приводится инструкция по установке прикладного ПО Zookeeper на ОС RHEL и CentOS веток 5.x-6.x, 7.x.
ZooKeeper — распределённый сервис конфигурирования и синхронизации, не знаю как вам, но мне данное определение мало что раскрывает. Оглядываясь на свой опыт, могу дать альтернативное определение ZooKeeper, это распределенное key/value(ключ/значение) хранилище со следующими свойствами:
- пространство ключей образует дерево (иерархию подобную файловой системе);
- значения могут содержаться в любом узле иерархии, а не только в листьях (как если бы файлы одновременно были бы и каталогами), узел<u/> иерархии называется <u>znode;
- между клиентом и сервером двунаправленная связь, следовательно, клиент может подписываться как изменение конкретного значения или части иерархии;
- возможно создать временную пару ключ/значение, которая существует, пока клиент, её создавший, подключен к кластеру;
- все данные должны помещаться в память;
- устойчивость к смерти некритического кол-ва узлов кластера(наличие кворума).
Установка ПО Zookeeper на CentOS 7.3
Для инсталляции будет использоваться zookeeper версии 3.4.10. В файл ~/.bash_profile, пользователя из-под которого планируется запуск сервисов, должны быть внесены переменные окружения JAVA/JRUBY:
# .bash_profile # Get the aliases and functions if [ -f ~/.bashrc ]; then . ~/.bashrc fi
# User specific environment and startup programs PATH=/opt/java/bin:$PATH:$HOME/bin:/opt/jruby/bin JRUBY_HOME=/opt/jruby PATH=$PATH:$HOME/bin
export PATH export JRUBY_HOME
Все действия выполняются под пользователем root(сервер 10.160.20.186, владельцем директорий будет пользователь user_dev, запуск сервиса будет осуществляться из-под пользователя user_dev):
- Переходим в каталог /opt и скачиваем актуальную версию ПО Zookeeper(в нашем случае — 3.4.10) с официального сайта, или, в нашем случае, с ftp://10.160.20.13/Software/
# cd /opt && wget ftp://Reader_S:7ujmMJU@10.160.20.13:/Software/zookeeper-3.4.10.tar.gz
- Распаковываем скачанный архив, переименовываем директорию, назначаем владельцем пользователя user_dev
# tar xzvf zookeeper-3.4.10.tar.gz && mv zookeeper-3.4.10 zookeeper && chown user_dev. -R /opt/zookeeper
- Настраиваем инстанс zookeeper на сервере:
a) Добавляем в файл zkEnv.sh строку ". ~/.bash_profile" сразу после строки "#!/usr/bin/env bash" (для упрощения приводится команда sed): # sed -i "s|#!/usr/bin/env bash|#!/usr/bin/env bash \n . ~/.bash_profile|" /opt/zookeeper/bin/zkEnv.sh
b) Изменяем параметр ZOO_LOG_DIR в файле zkEnv.sh(для упрощения приводится команда sed): # sed -i "s|ZOO_LOG_DIR=\x22\x2E\x22|ZOO_LOG_DIR=\x22/opt/zookeeper/log\x22|" /opt/zookeeper/bin/zkEnv.sh
c) Изменяем параметр ZOO_LOG4J_PROP в файле zkEnv.sh(для упрощения приводится команда sed): # sed -i "s|ZOO_LOG4J_PROP=\x22INFO,CONSOLE\x22|ZOO_LOG4J_PROP=\x22INFO,ROLLINGFILE\x22|" /opt/zookeeper/bin/zkEnv.sh
d) Создаём директории data и log: # mkdir -p /opt/zookeeper/{data,log}
e) Создаём файл myid в директории data и в него помещаем значение 1: # echo '1' > /opt/zookeeper/data/myid
f) Настраиваем файл /opt/zookeeper/conf/zoo.cfg, далее приведена настройка для сервера 10.160.22.186, который располагается на НК: # echo > /opt/zookeeper/conf/zoo.cfg # cat >>/opt/zookeeper/conf/zoo.cfg <<EOF # ZooKeeper node2 #.... clientPort=3010 # ZooKeeper dataDir=/opt/zookeeper/data # ( ) tickTime=2000 #.......... initLimit=20 #...... syncLimit=10 # ZooKeeper ( ). 0 - . autopurge.purgeInterval=1 # ,..... autopurge.snapRetainCount=3 # ZooKeeper # : server.number=host:leader_port:election_port[:observer] server.1=10.160.22.186:3001:3002 server.2=10.160.22.186:3003:3004 server.3=10.160.22.188:3005:3006 server.4=10.160.22.188:3007:3008 EOF
g) Создаём файл сервиса ZooKeeper: # touch /etc/systemd/system/ZooKeeper.service
h) Редактируем созданный на этапе g) файл: # cat >> /etc/systemd/system/ZooKeeper.service <<EOF [Unit] Description=Apache Zookeeper server. Documentation=http://zookeeper.apache.org Requires=network.target remote-fs.target. After=network.target remote-fs.target
[Service] Type=forking User=user_dev Group=user_dev ExecStart=/opt/zookeeper/bin/zkServer.sh start ExecStop=/opt/zookeeper/bin/zkServer.sh stop ExecReload=/opt/zookeeper/bin/zkServer.sh restart Restart=always
[Install] WantedBy=multi-user.target EOF
- Назначаем владельцем директорий /opt/zookeeper пользователя user_dev:
#chown user_dev. -R /opt/zookeeper
- Добавляем сервис ZooKeeper.service в автозагрузку:
# systemctl enable ZooKeeper.service
- Запускаем сервисы:
#systemctl daemon-reload && systemctl start ZooKeeper.service
- Проверяем статусы сервиса:
#systemctl status ZooKeeper.service
* ZooKeeper.service - Apache Zookeeper server Loaded: loaded (/etc/systemd/system/ZooKeeper.service; enabled; vendor preset: disabled) Active: active (running) since Пт 2017-07-28 08:44:33 MSK; 1h 2min ago Docs: http://zookeeper.apache.org Process: 2275 ExecStart=/opt/zookeeper/bin/zkServer.sh start (code=exited, status=0/SUCCESS) Main PID: 2290 (java) CGroup: /system.slice/ZooKeeper.service L-2290 java -Dzookeeper.log.dir=/opt/zookeeper/log -Dzookeeper.root.logger=INFO,ROLLINGFILE -cp /o pt/zookeeper/bin/../build/classes:/opt/zookeeper/bin/../build/lib/*.jar:/op... июл 28 08:44:32 VM-V-App-03 systemd[1]: Starting Apache Zookeeper server... июл 28 08:44:32 VM-V-App-03 zkServer.sh[2275]: ZooKeeper JMX enabled by default июл 28 08:44:32 VM-V-App-03 zkServer.sh[2275]: Using config: /opt/zookeeper/bin/../conf/zoo.cfg июл 28 08:44:33 VM-V-App-03 systemd[1]: Started Apache Zookeeper server.
- Перезагружаем сервер, после чего проверяем загрузились ли сервисы ZooKeeper
P.S.
Для проверки получения ответа с сервера 10.160.22.186 выполним команды на сервере 10.160.22.188(должен быть инсталлирован netcat):
# echo "ruok" | nc 10.160.22.186 3010 ; echo
# echo "ruok" | nc 10.160.22.186 3020 ; echo
Ссылки
Apache Zookeeper Home
Пакет ПО Zookeeper версии 3.4.10
ZooKeeper или пишем сервис распределенных блокировок
Скрипт первоначальной установки ZooKeeper