WWW.LIB.KNIGI-X.RU
БЕСПЛАТНАЯ  ИНТЕРНЕТ  БИБЛИОТЕКА - Электронные матриалы
 

Pages:   || 2 | 3 |

«Red Hat High Availability Red Hat. Отдел инженерной документации Red Hat Enterprise Linux 6 Администрирование кластера Red Hat High ...»

-- [ Страница 1 ] --

Red Hat Enterprise Linux 6

Администрирование кластера

Red Hat High Availability

Red Hat. Отдел инженерной документации

Red Hat Enterprise Linux 6 Администрирование кластера

Red Hat High Availability

Red Hat. Отд ел инженерно й д о кументации

do cs-need-a-fix@redhat.co m

Юрид ическое увед омление

Copyright © 2013 Red Hat, Inc. and others.

T his document is licensed by Red Hat under the Creative Commons Attribution-ShareAlike 3.0 Unported

License. If you distribute this document, or a modified version of it, you must provide attribution to Red Hat, Inc. and provide a link to the original. If the document is modified, all Red Hat trademarks must be removed.

Red Hat, as the licensor of this document, waives the right to enforce, and agrees not to assert, Section 4d of CC-BY-SA to the fullest extent permitted by applicable law.

Red Hat, Red Hat Enterprise Linux, the Shadowman logo, JBoss, MetaMatrix, Fedora, the Infinity Logo, and RHCE are trademarks of Red Hat, Inc., registered in the United States and other countries.

Linux ® is the registered trademark of Linus T orvalds in the United States and other countries.

Java ® is a registered trademark of Oracle and/or its affiliates.

XFS ® is a trademark of Silicon Graphics International Corp. or its subsidiaries in the United States and/or other countries.

MySQL ® is a registered trademark of MySQL AB in the United States, the European Union and other countries.



Node.js ® is an official trademark of Joyent. Red Hat Software Collections is not formally related to or endorsed by the official Joyent Node.js open source or commercial project.

T he OpenStack ® Word Mark and OpenStack Logo are either registered trademarks/service marks or trademarks/service marks of the OpenStack Foundation, in the United States and other countries and are used with the OpenStack Foundation's permission. We are not affiliated with, endorsed or sponsored by the OpenStack Foundation, or the OpenStack community.

All other trademarks are the property of their respective owners.

Аннотац ия В этом д окументе рассматривается настройка и управление комплектом высокой готовности в Red Hat Enterprise Linux 6.

Сод ержание Содержание...... ение.................................................................................7..........

Введ.....

1. Соглашения д окумента 7

1.1. Т ипографические соглашения

–  –  –

Введение В этом д окументе привед ена информация об установке, настройке и управлении компонентами комплекта высокой степени готовности (Red Hat High Availability), который позволяет объед инить группу компьютеров (так называемых узлов) в кластер. В рамках этого руковод ства под разумевается, что в кластере выполняются программы Red Hat High Availability.

Материал ориентирован на системных ад министраторов с опытом работы с Red Hat Enterprise Linux, знакомых с концепциями кластеров и серверных вычислений.

Информация о Red Hat Enterprise Linux 6 может быть найд ена в след ующих руковод ствах:

Руководство по установке Red Hat Enterprise Linux 6.

Руководство по развертыванию пред оставляет информацию по установке, настройке и ад министрированию Red Hat Enterprise Linux 6.

Информацию о Red Hat High Availability и д ругих прод уктах Red Hat Enterprise Linux 6 можно найти в след ующих д окументах:

Обзор комплекта Red Hat High Availability.

Администрирование LVM сод ержит информацию об управлении логическими томами (LVM, Logical Volume Manager), в том числе о работе LVM в кластерном окружении.

Администрирование GFS2 пред оставляет информацию об установке, настройке и под д ержке Red Hat GFS2 (Global File System 2).

DM Multipath пред оставляет информацию о многопутевых возможностях Red Hat Enterprise Linux.

Распределение нагрузки пред оставляет информацию о настройке высокопроизвод ительных систем и служб с помощью комплекта распред еления нагрузки.

Примечания к выпуску сод ержат краткий обзор послед него выпуска Red Hat.

Полный д иапазон д окументов Red Hat д оступен в вид е HT ML, PDF и RPM на д иске д окументации Red Hat Enterprise Linux и на сайте http://docs.redhat.com/docs/en-US/index.html.

1. Соглашения документа В этом руковод стве используются различные стили д ля выд еления текста.

В PDF и печатной версии д окумента используются шрифты Liberation. Эти же шрифты используются д ля отображения HT ML, если они установлены в системе. В противном случае вместо них используются похожие шрифты. Red Hat Enterprise Linux 5 и более позд ние версии включают в свой состав комплект шрифтов Liberation по умолчанию.

1.1. Типографические соглашения Д ля выд еления текста используются четыре стиля, которые буд ут перечислены д алее.

Монош иринный жирный ш риф т Используется д ля выд еления ввод имого текста, включая команд ы оболочки, имена файлов, пути д оступа, а также клавиши и их комбинации.

Например:

Чтобы просмотреть сод ержимое файла m y_next_bestselling_novel, расположенного в текущем каталоге, в строке приглашения оболочки введ ите cat m y_next_bestselling_novel и нажмите Enter д ля выполнения этой команд ы.

Привед енный выше текст сод ержит имя файла, команд у оболочки и название клавиши, выд еленные моноширинным жирным шрифтом. Все они различаются по контексту.

Комбинации клавиш отличаются от отд ельных клавиш с помощью знака плюс, который Red Hat Enterprise Linux 6 Ад министрирование кластера соед иняет все клавиши, вход ящие в комбинацию.

Например:

Нажмите Enter д ля исполнения команд ы.

Нажмите Ctrl+Alt+F2 д ля переход а в виртуальный терминал.

В первом примере выд елена отд ельная клавиша, которую над о нажать. Во втором примере выд елена комбинация клавиш — три клавиши, которые над о нажать од новременно.

Если при описании исход ных код ов программы внутри параграфа встречаются имена классов, метод ов, функций, переменных и возвращаемые ими значения, то они тоже выд еляются монош иринным жирным ш риф том.

Например:

В состав классов, имеющих отношение к обработке файлов, вход ят классы filesystem д ля работы с файловыми системами, file д ля работы с файлами, dir д ля работы с каталогами. Кажд ый класс имеет свой собственных набор прав д оступа.

Пропорц иональный жирный шрифт Выд еляет слова и фразы, встречающиеся в системе, такие как имена приложений, тексты д иалоговых окон, над писи на кнопках, метки флажков и переключателей, названия меню и д ругих элементов графического интерфейса.

Например:

Выберите Система Параметры Мышь д ля запуска приложения Настройка мыши. На вклад ке Кнопки установите флажок Настроить мыш ь под левую руку и нажмите Закрыть, чтобы правая кнопка мыши стала работать как главная (что д елает мышь уд обной д ля левши).

Чтобы вставить специальный символ в файл, отрытый в ред акторе gedit, выберите из главного меню Приложения Станд артные Т аблиц а символов. Затем в меню приложения Т аблиц а символов выберите Поиск Найти, введ ите название символа в поле Найти и нажмите кнопку Найти след ую щ ее. Найд енный символ буд ет выд елен на заклад ке Т аблица символов. Д важд ы щелкните на этом символе, чтобы вставить его в поле Т екст д ля копирования, после чего нажмите кнопку Копировать. Т еперь вернитесь в ваш д окумент и в меню ред актора gedit выберите Правка Вставить.

В привед енном выше тексте имена приложений, названия общесистемных пунктов меню и меню приложений, названия кнопок и текст, относящийся к элементам графического интерфейса, выд елены пропорциональным жирным шрифтом.

Моноширинный жирный курсив или пропорциональный жирный курсив Оба типа выд еления указывают на изменчивость текста. Использование курсива означает, что текст не след ует ввод ить буквально, или что он может меняться при вывод е в зависимости от обстоятельств.

Например:

Д ля под ключения к уд аленной машине с помощью SSH введ ите ssh имя_пользователя@ имя_домена. Скажем, если имя уд аленной машины — exam ple.com, а имя пользователя — john, то команд а буд ет выгляд еть так: ssh john@ exam ple.com.





Команд а m ount -o rem ount файловая_система перемонтирует указанную файловую систему. Например, д ля файловой системы /hom e команд а буд ет выгляд еть так: m ount -o rem ount /hom e.

Чтобы просмотреть версию установленного пакета, выполните команд у rpm -q пакет. Результат команд ы буд ет пред ставлен в формате пакет-версия-выпуск.

Обратите внимание на слова, выд еленные жирным курсивом: имя_пользователя, имя_д омена,

–  –  –

файловая_система, пакет, версия, выпуск. Кажд ое из них обозначает место, куд а нужно под ставить значение, или текст, под ставляемый системой при вывод е.

Т акже курсивом выд еляются важные термины, встречаемые в тексте д окумента впервые.

Например:

Publican — система публикации DocBook.

1.2. Выделение фрагментов Вывод на терминал и фрагменты исход ного код а программ визуально отд еляются от окружающего текста.

Д ля отображения текста, вывод имого на терминал, используется прямой монош иринный ш риф т:

–  –  –

Исход ный код программ тоже показывается с помощью прямого монош иринного ш риф та, но с выд елением синтаксических конструкций:

static int kvm_vm_ioctl_deassign_device(struct kvm *kvm, struct kvm_assigned_pci_dev *assigned_dev) { int r = 0;

struct kvm_assigned_dev_kernel *match;

–  –  –

Примечания обычно сод ержат советы, описания приемов или альтернативных под ход ов к решению зад ач. Игнорирование примечаний не несет негативных послед ствий, но при этом можно не узнать о существовании какого-то способа, который существенно облегчает выполнение работы.

Red Hat Enterprise Linux 6 Ад министрирование кластера

–  –  –

Важные замечания выд еляют то, что легко не заметить: изменения настроек, касающиеся только текущего сеанса, или перечень служб, которые над о перезапустить д ля применения обновлений. Игнорирование замечаний с пометкой «Важно» не привод ит к потере д анных, но может вызвать разд ражение и д осад у.

–  –  –

Не стоит игнорировать пред упрежд ения, так как они сод ержат важную информацию, которая позволит избежать потери д анных.

2. Отзывы и предложения Если вы нашли опечатку, или у вас есть пред ложения по усовершенствованию руковод ства, созд айте запрос в Bugzilla д ля компонента doc-Cluster_Administration.

Укажите код :

Cluster_Administration(EN)-6 (2013-2-15T16:26) Он ид ентифицирует эту версию руковод ства.

Под робно опишите свои пред ложения. Д ля облегчения поиска ошибок и опечаток укажите номер разд ела и окружающий текст.

–  –  –

Глава 1. Обзор Red Hat High Availability позволяет объед инить группу компьютеров (так называемых узлов) в кластер.

Кластер помогает облегчить организацию совместного д оступа к файлам в GFS2 и решить зад ачи обеспечения отказоустойчивости служб.

–  –  –

Информацию о созд ании кластеров Red Hat Enterprise Linux на основе Red Hat Global File System 2 (GFS2) и High Availability можно найти в статье «Основные приемы развертывания кластера Red Hat Enterprise Linux, комплекта High Availability и GFS2» по ад ресу https://access.redhat.com/kb/docs/DOC-40821.

В этой главе привед ен список основных изменений функциональности комплекта Red Hat High Availability с тех пор, как он был впервые пред ставлен в Red Hat Enterprise Linux 6.

1.1. Основные изменения Д алее рассматриваются новые и измененные характеристики комплекта Red Hat High Availability.

1.1.1. Red Hat Enterprise Linux 6.1 Ниже перечислены основные изменения в Red Hat Enterprise Linux 6.1.

Реализована функциональность ловушек SNMP (см. Глава 10, Настройка SNMP).

Д обавлена команд а ccs (см. Глава 5, Настройка кластера с помощью ccs, Глава 6, Управление кластером с помощью ccs).

Обновлена д окументация Conga.

Начиная с Red Hat Enterprise Linux 6.1 при выполнении ricci требуется ввести пароль при копировании изменений конфигурации кластера с опред еленного узла (см. Разд ел 2.13, «ricci»).

Д обавлено правило восстановления под названием Restart-Disable: попытка перезапуска службы с послед ующим отключением в случае неуд ачи (см. Разд ел 3.10, «Д обавление службы в кластер», Приложение B, Параметры ресурсов).

Структуру ресурсов можно настроить как некритическую, то есть в случае сбоя ресурса буд ет отключен только этот ресурс (см. Разд ел 3.10, «Д обавление службы в кластер», Разд ел C.4, «Восстановление и независимые д еревья»).

Д обавлена Глава 9, Диагностика и решение конфликтов в кластере.

Кроме того, внесены д ругие незначительные изменения и д ополнения.

1.1.2. Red Hat Enterprise Linux 6.2 Ниже перечислены основные изменения в Red Hat Enterprise Linux 6.2.

Д обавлена под д ержка кластерных схем Samba (см. Глава 11, Кластерная конфигурация Samba).

Д ля авторизации можно использовать д анные любого пользователя системы, гд е установлено приложение luci, но начиная с Red Hat Enterprise Linux 6.2 изначально только root облад ает правами д оступа к компонентам luci. Разд ел 3.3, «Управление д оступом к luci»

сод ержит информацию о пред оставлении разрешений д ругим пользователям.

Взаимод ействие узлов кластера может осуществляться с помощью од ноад ресной перед ачи UDP (см. Разд ел 2.12, «Од ноад ресная перед ача UDP»).

Некоторые характеристики luci (например, IP-ад рес д ля д оступа к luci) можно опред елить напрямую в файле /etc/sysconfig/luci (см. Т аблица 2.2, «Открытые порты на

Red Hat Enterprise Linux 6 Ад министрирование кластера

компьютере с работающим процессом luci», Разд ел 2.4, «/etc/sysconfig/luci»).

Команд а ccs теперь включает параметры --lsfenceopts д ля вывод а д оступных устройств изоляции и --lsfenceopts тип д ля вывод а типов изоляции (см. Разд ел 5.6, «Список устройств и их параметров»).

ccs теперь включает параметры --lsserviceopts д ля вывод а списка д оступных кластерных служб и --lsserviceopts тип д ля вывод а параметров д ля выбранного типа службы (см. Разд ел 5.11, «Получение списка д оступных служб»).

Д обавлена под д ержка агента VMware SOAP (см. Приложение A, Параметры устройств изоляции).

Д обавлена под д ержка агента RHEV-M REST API д ля RHEV 3.0+ (см. Приложение A, Параметры устройств изоляции).

При настройке виртуальных машин в кластере теперь можно использовать ccs c аргументом

--addvm вместо addservice. Это позволяет разместить опред еление vm в файле конфигурации сразу под rm (см. Разд ел 5.12, «Ресурсы виртуальных машин»).

Д обавлено Приложение D, Проверка ресурсов кластерных служб и ожидание восстановления, гд е рассказывается о наблюд ении за состоянием кластерных ресурсов и изменении интервала ожид ания ответа.

Разд ел 2.3.

3, «Настройка правил iptables» сод ержит информацию о фильтрации трафика при помощи iptables.

Кроме того, внесены д ругие незначительные изменения и д ополнения.

1.1.3. Red Hat Enterprise Linux 6.3 Ниже перечислены основные изменения в Red Hat Enterprise Linux 6.3.

Д обавлена под д ержка агента ресурсов condor (см. Приложение B, Параметры ресурсов).

Д обавлено Приложение F, HA-LVM.

Д обавлены уточнения о необход имости перезапуска кластера при изменении конфигурации (см. Разд ел 9.1, «Изменения конфигурации не вступают в силу»).

Д обавлено примечание о завершении неактивного сеанса luci после 15 минут (см. Разд ел 3.2, «Запуск luci»).

Д обавлен параметр privlvl д ля fence_ipm ilan (см. Приложение A, Параметры устройств изоляции).

Д обавлен Разд ел 2.14, «Виртуальные машины в кластере».

Д обавлен Разд ел 4.6, «Созд ание резервной копии и восстановление конфигурации luci».

Д обавлен Разд ел 9.4, «Сбой rgm anager».

Разд ел 5.14.

4, «Вед ение журналов», Разд ел 7.7, «Вед ение журналов» и Разд ел 9.13, «Журналирование д ля DLM» рассказывают о журналах и параметрах отлад ки.

В Red Hat Enterprise Linux 6.3 пользователь root и ад министраторы luci получили возможности д обавления пользователей в окне интерфейса luci (см. Разд ел 3.3, «Управление д оступом к luci»).

При созд ании файла конфигурации с помощью ccs его формат проверяется в соответствии со схемой в /usr/share/cluster/cluster.rng на узле, который зад ан параметром -h, в то время как раньше использовалась встроенная схема из /usr/share/ccs/cluster.rng (см.

Разд ел 5.1.

6, «Проверка формата»).

Приложение A, Параметры устройств изоляции и Приложение B, Параметры ресурсов теперь включают соответствующие имена параметров в cluster.conf.

Кроме того, внесены д ругие незначительные изменения и д ополнения.

1.1.4. Red Hat Enterprise Linux 6.4 Ниже перечислены основные изменения в Red Hat Enterprise Linux 6.4.

–  –  –

Д обавлена под д ержка агентов изоляции на основе контроллеров Eaton (SNMP), HP Bladesystem и IBM iPDU (см. Приложение A, Параметры устройств изоляции).

Приложение B, Параметры ресурсов теперь сод ержит описание агента ресурсов NFSсервера.

Пользователь root и ад министраторы luci получили возможности уд аления пользователей в окне интерфейса luci (см. Разд ел 3.3, «Управление д оступом к luci»).

Приложение B, Параметры ресурсов сод ержит описание нового параметра nfsrestart.

Д обавлен новый Разд ел 5.1.5, «Команд ы, переопред еляющие пред ыд ущие настройки».

Разд ел 2.3, «Д оступ к портам IP» включает информацию о фильтрации igm p при помощи iptables.

Агент изоляции LAN IPMI теперь использует параметр д ля настройки уровня привилегий д ля устройства IPMI (см. Приложение A, Параметры устройств изоляции).

Д обавлена под д ержка режимов агрегации 0 и 2. Под сказка при д иагностике конфликтов пред лагает убед иться в том, что выбран од ин из под д ерживаемых режимов.

Устройства VLAN теперь могут принимать участие в обмене сообщениями под твержд ения соед инения.

Red Hat High Availability теперь под д ерживает возможности настройки протокола избыточного кольца. Разд ел 7.6, «Настройка протокола избыточного кольца» сод ержит информацию о его настройке в файле cluster.conf, Разд ел 3.5.4, «Настройка протокола избыточного кольца»

— при помощи luci, а Разд ел 5.14.5, «Настройка протокола избыточного кольца» — при помощи ccs.

Кроме того, внесены д ругие незначительные изменения и д ополнения.

1.2. Обзор конфигурации

Этапы настройки кластера:

1. Разд ел 1.3, «Под готовка оборуд ования»

2. Разд ел 1.4, «Установка программ Red Hat High Availability»

3. Разд ел 1.5, «Настройка программ Red Hat High Availability»

1.3. Подготовка оборудования Под готовка под разумевает под ключение оборуд ования, необход имого д ля работы комплекта Red Hat High Availability. Ниже перечислены устройства, которые потребуются д ля созд ания кластера (см. Рисунок 1.1, «Схема оборуд ования»). Глава 2, Подготовка системы сод ержит д ополнительную информацию.

Узлы кластера — компьютеры с Red Hat Enterprise Linux 6 и как минимум 1 ГБ ОЗУ.

Д ля д оступа клиентов к кластеру потребуется коммутатор Ethernet или концентратор д ля открытой сети.

Д ля взаимод ействия оборуд ования и узлов кластера потребуется коммутатор Ethernet или концентратор д ля закрытой сети.

Д ля изоляции неисправных узлов рекоменд уется использование сетевого коммутатора питания.

Коммутатор Fibre Channel контролирует д оступ к хранилищу Fibre Channel. В зависимости от типа интерфейса могут быть д оступны д ругие варианты, например iSCSI.

Т ип хранилища зависит от того, д ля каких целей пред назначен кластер.

Red Hat Enterprise Linux 6 Ад министрирование кластера Рисунок 1.1. Схема оборуд ования

1.4. Установка программ Red Hat High Availability Д ля установки комплекта высокой готовности необход имы соответствующие разрешения д оступа. При наличии luci кластерные программы можно буд ет установить из его интерфейса.

Если конфигурация кластера осуществляется с помощью д ругих инструментов, установка кластерных программ выполняется аналогично установке д ругих программ Red Hat Enterprise Linux.

След ующая команд а установит кластерные программы:

# yum install rgmanager lvm2-cluster gfs2-utils Д аже если устанавливается только rgm anager, из канала HighAvailability буд ут получены все необход имые д ля созд ания кластера пакеты. Некоторые пакеты, такие как lvm 2-cluster и gfs2-utils, вход ят в состав канала ResilientStorage и могут не требоваться.

Обновление программ При обновлении версии Red Hat Enterprise Linux программы кластера можно обновить без необход имости остановки кластера. Д ля этого требуется лишь остановить, обновить и перезапустить программы поочеред но на кажд ом узле.

1. Остановите работу служб кластера (см. Разд ел 8.1.2, «Остановка кластерных программ»). В некоторых случаях может быть рекоменд овано перенести кластерные службы и виртуальные машины на д ругой узел и уже после этого остановить rgm anager.

2. Обновите пакеты с помощью yum update.

3. Перезапустите службы или перезагрузите узел (см. Разд ел 8.1.1, «Запуск кластерных программ»).

–  –  –

1.5. Настройка программ Red Hat High Availability

Настройка комплекта Red Hat High Availability осуществляется с помощью специальных утилит:

Conga — графический интерфейс д ля установки, настройки и управления комплектом (см.

Глава 3, Настройка кластера в Conga и Глава 4, Управление кластером с помощью Conga).

Команд а ccs (см. Глава 5, Настройка кластера с помощью ccs, Глава 6, Управление кластером с помощью ccs).

Программы команд ной строки (см. Глава 7, Настройка кластера в командной строке, Глава 8, Управление кластером в командной строке, Приложение E, Обзор команд).

–  –  –

RHEL 6 не включает в свой состав system -config-cluster.

Red Hat Enterprise Linux 6 Ад министрирование кластера Глава 2. Подготовка системы В этой главе рассматриваются зад ачи под готовки системы к установке комплекта Red Hat High Availability.

–  –  –

Д о ввод а комплекта в эксплуатацию рекоменд уется проконсультироваться с пред ставителем Red Hat на пред мет соответствия конфигурации системы требованиям.

Разд ел 2.1, «Общие требования»

Разд ел 2.2, «Совместимость оборуд ования»

Разд ел 2.3, «Д оступ к портам IP»

Разд ел 2.4, «/etc/sysconfig/luci»

Разд ел 2.5, «ACPI и интегрированные устройства изоляции»

Разд ел 2.6, «Особенности настройки служб высокой готовности»

Разд ел 2.7, «Валид ация cluster.

conf»

Разд ел 2.8, «NetworkManager»

Разд ел 2.9, «Д иск кворума»

Разд ел 2.10, «SELinux»

Разд ел 2.11, «Многоад ресная рассылка»

Разд ел 2.12, «Од ноад ресная перед ача UDP»

Разд ел 2.13, «ricci»

Разд ел 2.14, «Виртуальные машины в кластере»

2.1. Общие требования Существует несколько вариантов конфигурации комплекта. Ниже перечислены характеристики, которые нужно учесть при планировании кластерной структуры.

–  –  –

Локальные кластеры Распред еленные кластеры пока не под д ерживаются. Под робную информацию можно запросить у пред ставителя Red Hat.

GFS2 GFS2 может быть созд ана отд ельно в од ной системе или как часть кластерной структуры, но Red Hat Enterprise Linux не под д ерживает GFS2 в отд ельных системах. Red Hat под д ерживает целый набор высокопроизвод ительных файловых систем, специально пред назначенных д ля работы на инд ивид уальных узлах, поэтому при наличии лишь од ного узла рекоменд уется использовать их, а не GFS2.

При настройке кластерной GFS2 необход имо обеспечить д оступ всех узлов к файловой системе. Структуры, гд е од ни узлы имеют д оступ к файловой системе, а д ругие — нет, не под д ерживаются. При этом не требуется, чтобы GFS2 была смонтирована на абсолютно всех узлах.

Отказоустойчивая структура Кластеры могут включать RAID-массивы с д вумя контроллерами, объед иненные сетевые

–  –  –

каналы, разные пути под ключения узлов к хранилищу и избыточные UPS с целью повышения отказоустойчивости.

При необход имости снижения себестоимости кластера можно исключить избыточные компоненты, но это сд елает его более уязвимым.

Некоторые экономичные решения (RAID-контроллеры хоста, программные RAID без кластерной под д ержки, многоинициаторные SCSI-конфигурации) несовместимы или не могут использоваться в качестве общего хранилища.

Целостность д анных Чтобы обеспечить целостность д анных, необход имо, чтобы кластерные службы выполнялись только на од ном узле. При наличии переключателя питания в кластере можно буд ет под ключить д ругой узел и перезапустить на нем службы. Это позволяет пред отвратить од новременное обращение д вух узлов в од ним и тем же д анным. Д ля под д ержки целостности д анных используются так называемые устройства изоляции — физические устройства или программные решения д ля уд аленной перезагрузки и отключения узлов.

Агрегац ия каналов Ethernet Кворум кластера и статус узлов опред еляется в ход е обмена сообщениями межд у узлами через Ethernet. Агрегация каналов позволяет использовать несколько интерфейсов Ethernet как од ин, что исключает уязвимость при сбое од ного интерфейса.

Red Hat Enterprise Linux 6.4 под д ерживает режимы агрегации 0, 1 и 2.

IPv4 и IPv6 Комплект высокой готовности под д ерживает протоколы IPv4 и IPv6.

2.2. Совместимость оборудования Перед началом настройки программ Red Hat High Availability необход имо убед иться, что д ля организации кластера используется совместимое оборуд ование (устройства изоляции, хранилище, коммутаторы Fibre Channel). Информацию о совместимом оборуд овании можно найти на http://www.redhat.com/cluster_suite/hardware/.

2.3. Д оступ к портам IP Прежд е чем ввести Red Hat High Availability в эксплуатацию, необход имо открыть порты на узлах кластера и на компьютерах, гд е буд ет работать luci (интерфейс пользователя Conga):

Разд ел 2.3.

1, «Д оступ к портам IP на узлах кластера»

Разд ел 2.3.

2, «Порт д ля luci»

След ующий разд ел сод ержит информацию о правилах iptables д ля активации портов, необход имых д ля нормальной работы Red Hat High Availability:

Разд ел 2.3.

3, «Настройка правил iptables»

2.3.1. Д оступ к портам IP на узлах кластера Д ля взаимод ействия узлов кластера д руг с д ругом потребуется открыть порты (см. Т аблица 2.1, «Открытые порты»). Активация портов на кажд ом узле осуществляется с помощью system config-firewall.

Red Hat Enterprise Linux 6 Ад министрирование кластера Т аблиц а 2.1. Открытые порты

–  –  –

2.3.2. Порт для luci Чтобы клиенты могли под ключаться к машине, гд е выполняется luci (интерфейс пользователя Conga), необход имо открыть порт 8084 (см. Т аблица 2.2, «Открытые порты на компьютере с работающим процессом luci»).

–  –  –

Если служба luci выполняется на узле кластера, необход имо д ополнительно открыть порт 11111.

Т аблиц а 2.2.

Открытые порты на компьютере с работающим проц ессом luci

–  –  –

В Red Hat Enterprise Linux 6.1 стало разрешено опред елять параметры конфигурации в файле /etc/sysconfig/luci, гд е можно изменить порт обслуживания luci. Этот под ход является оптимальным при наличии нескольких сетей, если вы хотите разрешить д оступ к luci только из локальной сети. Д ля этого снимите комментарий со строки host и откорректируйте ее.

Пример:

host = 10.10.10.10 Разд ел 2.4, «/etc/sysconfig/luci» сод ержит информацию о /etc/sysconfig/luci.

2.3.3. Настройка правил iptables Ниже привед ены правила активации портов д ля Red Hat High Availability. Ад рес под сети (192.168.1.0/24) след ует заменить под ход ящим значением.

Д ля cm an:

$ iptables -I INPUT -m state --state NEW -m multiport -p udp -s 192.168.1.0/24

-d 192.168.1.0/24 --dports 5404,5405 -j ACCEPT $ iptables -I INPUT -m addrtype --dst-type MULTICAST -m state --state NEW -m multiport -p udp -s 192.168.1.0/24 --dports 5404,5405 -j ACCEPT

–  –  –

$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 21064 -j ACCEPT

Д ля ricci:

$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 11111 -j ACCEPT

–  –  –

Д ля m odclusterd:

$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 16851 -j ACCEPT

Д ля luci:

$ iptables -I INPUT -m state --state NEW -p tcp -s 192.168.1.0/24 -d 192.168.1.0/24 --dport 16851 -j ACCEPT

Д ля igm p:

$ iptables -I INPUT -p igmp -j ACCEPT После настройки правил след ует их сохранить и перезапустить службу.

$ service iptables save ; service iptables restart 2.4. /etc/sysconfig/luci Начиная с Red Hat Enterprise Linux 6.1 некоторые параметры luci можно опред елить в файле /etc/sysconfig/luci. Т ак, зд есь можно изменить параметры окружения, используемые сценарием init, и конфигурацию сервера. Сам файл сод ержит инструкции и комментарии.

Рекоменд уется соблюд ать синтаксис и не изменять строки, не имеющие отношения к конфигурации. Т ак, например, в секции INIT SCRIPT не д олжно быть пробелов д о и после знака равенства, а строки, сод ержащие пробелы, д олжны быть заключены в кавычки.

Ниже привед ен пример изменения порта обслуживания luci.

1. Снимите комментарий со строки:

–  –  –

После изменения значения в /etc/sysconfig/luci необход имо убед иться, что новое значение буд ет использоваться по умолчанию. Т ак, например, изменив порт обслуживания luci, над о соответственно изменить номер при активации порта (см. Разд ел 2.3.2, «Порт д ля luci»).

При запуске службы luci изменения буд ут автоматически отражены в URL (см. Разд ел 3.2, «Запуск luci»). Этот ад рес и буд ет использоваться д ля д оступа к luci.

Д альнейшую информацию можно найти в самом файле /etc/sysconfig/luci.

2.5. ACPI и интегрированные устройства изоляции Если в кластере используются интегрированные устройства изоляции, необход имо настроить ACPI (Advanced Configuration and Power Interface) д ля отключения питания узла.

Red Hat Enterprise Linux 6 Ад министрирование кластера ACPI (Advanced Configuration and Power Interface) д ля отключения питания узла.

–  –  –

Информацию о совместимых устройствах можно найти на http://www.redhat.com/cluster_suite/hardware/.

Если д ля изоляции узла используется под обное устройство, д ля него след ует отключить функцию ACPI Soft-Off, что позволит немед ленно его отключить вместо послед овательного завершения работы (shutdown -h now). При включенной функции ACPI Soft-Off отключение узла может занять несколько секунд (см. примечание). Если ACPI Soft-Off включена, но узел завис при выключении, устройство изоляции не сможет его отключить. В этих условиях отключение буд ет отложено или д аже завершится неуд ачей. Соответственно восстановление кластера в такой ситуации буд ет происход ить мед ленно и может требовать вмешательства ад министратора.

Примечание

Время отключения узла зависит от используемого устройства изоляции. Од ни устройства выполняют операции, аналогичные нажатию и уд ерживанию кнопки питания, поэтому отключение может занять несколько секунд. Д ругие устройства выполняют операцию, аналогичную од нократному нажатию кнопки питания и возлагают ответственность за отключение на операционную систему. В этом случае отключение узла займет больше времени.

Д ля отключения ACPI Soft-Off рекоменд уется использовать chkconfig.

Существуют и д ругие метод ы:

Изменение повед ения кнопки питания в BIOS на "instant-off", что означает немед ленное отключение.

–  –  –

Отключение ACPI Soft-Off в BIOS на некоторых компьютерах может быть нед оступно.

Д обавление параметра acpi=off в команд у загрузки яд ра в файле /boot/grub/grub.conf.

–  –  –

Этот метод полностью отключает ACPI, что может нарушить процесс загрузки некоторых компьютеров. Его след ует использовать только в случаях, если остальные способы неэффективны.

Д алее метод ы отключения ACPI Soft-Off буд ут рассмотрены под робно:

Разд ел 2.5.

1, «Отключение ACPI Soft-Off с помощью chkconfig» (пред почтительно).

Разд ел 2.5.

2, «Отключение ACPI Soft-Off в BIOS» (д ополнительно).

Разд ел 2.5.

3, «Отключение ACPI в grub.conf» (д ополнительно).

2.5.1. Отключение ACPI Soft-Off с помощью chkconfig Чтобы отключить ACPI Soft-Off, можно выключить процесс acpid или уд алить его из списка служб под управлением chkconfig.

–  –  –

Этот метод является пред почтительным.

Поряд ок отключения ACPI Soft-Off на кажд ом узле:

1. Выполните:

chkconfig --del acpid (уд аляет acpid из списка служб под управлением chkconfig) ИЛИ chkconfig --level 234 5 acpid off (отключает acpid).

2. Перезагрузите узел.

3. После настройки и запуска кластера убед итесь, что в результате процед уры изоляции узел немед ленно отключается.

–  –  –

Процесс изоляции узла можно инициировать из интерфейса Conga или с помощью команд ы fence_node.

2.5.2. Отключение ACPI Soft-Off в BIOS Д ля отключения ACPI Soft-Off рекоменд уется использовать chkconfig (см. Разд ел 2.5.1, «Отключение ACPI Soft-Off с помощью chkconfig»). Если этот метод не под ход ит, д оступны д ругие варианты.

–  –  –

Отключение ACPI Soft-Off в BIOS на некоторых компьютерах может быть нед оступно.

Поряд ок отключения ACPI Soft-Off в BIOS на кажд ом узле:

1. Перезагрузите компьютер и войд ите в BIOS.

2. Перейд ите в меню настройки питания.

3. Измените значение Soft-Off by PWR-BT T N на Instant-Off (или его эквивалент д ля немед ленного выключения компьютера при нажатии кнопки питания). Пример 2.1, «Параметр Soft-Off by PWR-BT T N в BIOS установлен в Instant-Off» д емонстрирует установленные значения ACPI Function и Soft-Off by PWR-BT T N.

–  –  –

В разных BIOS названия параметров ACPI Function, Soft-Off by PWR-BT T N, and Instant-Off могут отличаться. Цель этой процед уры — настроить BIOS таким образом, чтобы компьютер выключался сразу же после нажатия кнопки питания.

4. Сохраните изменения и выйд ите из BIOS.

5. После настройки и запуска кластера убед итесь, что в результате процед уры изоляции узел немед ленно отключается.

Red Hat Enterprise Linux 6 Ад министрирование кластера

–  –  –

Параметру ACPI Function присвоено значение Enabled, а Soft-Off by PWR-BT T N — InstantOff.

2.5.3. Отключение ACPI в grub.conf Д ля отключения ACPI Soft-Off рекоменд уется использовать chkconfig (см. Разд ел 2.5.1, «Отключение ACPI Soft-Off с помощью chkconfig»). Если этот метод не под ход ит, можно отключить ACPI Soft-Off в разд еле управления питанием BIOS (см. Разд ел 2.5.2, «Отключение ACPI Soft-Off в BIOS»). В случае неэффективности этих метод ов можно полностью отключить ACPI, д обавив acpi=off в строку параметров яд ра в файле grub.conf.

–  –  –

Этот метод полностью отключает ACPI, что может нарушить процесс загрузки некоторых компьютеров. Его след ует использовать только в случаях, если остальные способы неэффективны.

ACPI можно отключить, отред актировав grub.conf на всех узлах кластера:

1. Откройте /boot/grub/grub.conf в текстовом ред акторе.

2. Д обавьте acpi=off в команд у загрузки яд ра (см. Пример 2.2, «Команд а загрузки яд ра с параметром acpi=off»).

3. Перезагрузите узел.

4. После настройки и запуска кластера убед итесь, что в результате процед уры изоляции узел немед ленно отключается.

–  –  –

Процесс изоляции узла можно инициировать из интерфейса Conga или с помощью команд ы fence_node.

Пример 2.2.

Команд а загрузки яд ра с параметром acpi=off # grub.conf generated by anaconda # # Note that you do not have to rerun grub after making changes to this file # NOTICE: You have a /boot partition. This means that # all kernel and initrd paths are relative to /boot/, eg.

# root (hd0,0) # kernel /vmlinuz-version ro root=/dev/mapper/vg_doc01-lv_root # initrd /initrd-[generic-]version.img #boot=/dev/hda default=0 timeout=5 serial --unit=0 --speed=115200 terminal --timeout=5 serial console title Red Hat Enterprise Linux Server (2.6.32-193.el6.x86_64) root (hd0,0) kernel /vmlinuz-2.6.32-193.el6.x86_64 ro root=/dev/mapper/vg_doc01lv_root console=ttyS0,115200n8 acpi=off initrd /initramrs-2.6.32-131.0.15.el6.x86_64.img В этом примере в строке, начинающейся с "kernel /vmlinuz-2.6.32-193.el6.x86_64.img", д обавлен параметр acpi=off.

2.6. Особенности настройки служб высокой готовности Д ля обеспечения высокой степени д оступности кластера можно настроить соответствующие службы. Ключевой компонент rgm anager позволяет перезапустить приложения после сбоя. В процессе настройки кластера формируются высокод оступные службы, которые в случае сбоя смогут мигрировать с од ного узла кластера на д ругой без вид имых послед ствий д ля клиентов.

Процед ура восстановления инициируется при сбое узла кластера или при переносе службы с од ного узла на д ругой (например, при планируемом обслуживании узла).

При созд ании службы высокой готовности необход имо настроить ее в файле конфигурации кластера. Т акая служба включает ресурсы кластера — структурные ед иницы, настраиваемые в файле конфигурации (ад реса IP, сценарии инициализации приложений, общие разд елы Red Hat GFS2).

Служба высокой готовности может работать только на од ном узле кластера, тем самым не нарушая целостность д анных. Д ополнительно можно зад ать приоритет восстановления узлов в случае сбоя. Если приоритет не опред елен, служба может быть восстановлена на любом узле в рамках д омена восстановления. Можно снять ограничения на выбор узла: если узлы д омена нед оступны, служба может быть перезапущена на любом узле кластера.

Рисунок 2.1, «Пример кластерной службы веб-сервера» д емонстрирует схему под названием «content-webserver».

Служба запущена на узле B в д омене, который включает узлы A, B, D. Узел D имеет более высокий приоритет по сравнению с A. Выбор запасного узла ограничивается пред елами д омена.

Служба охватывает след ующие ресурсы:

IP-ад рес 10.10.10.201.

Приложение "httpd-content": сценарий инициализации веб-сервера /etc/init.d/httpd Red Hat Enterprise Linux 6 Ад министрирование кластера (httpd).

Файловая система Red Hat GFS2 под названием "gfs2-content-webserver".

Рисунок 2.1.

Пример кластерной службы веб-сервера Клиенты обращаются к службе по ад ресу 10.10.10.201. Приложение httpd-content использует файловую систему gfs-content-webserver. Если узел B перестает функционировать, работа службы буд ет восстановлена на узле D. Если D нед оступен, буд ет выполнен переход на узел A.

Как след ствие, перерывы в работе клиентов буд ут минимальны. Т ак, в привед енном примере может быть потеряна информация о состоянии (д анные текущего сеанса). После восстановления на д ругом узле служба буд ет д оступна по тому же ад ресу.

–  –  –

Глава 3, Настройка кластера в Conga и Глава 7, Настройка кластера в командной строке сод ержат информацию о настройке резервных д оменов.

Служба высокой готовности объед иняет в своем составе группу кластерных ресурсов. В файле /etc/cluster/cluster.conf эта структура пред ставлена в вид е д ерева ресурсов в формате XML.

–  –  –

В корне д ерева ресурсов лежит так называемый ресурс службы. Д ругие типы ресурсов опред еляют его характеристики. Поряд ок настройки д ерева включает созд ание ресурса службы, его под чиненных ресурсов и их объед инение в ед иное целое в соответствии с иерархическими ограничениями.

При настройке групп ресурсов след ует принять во внимание:

типы ресурсов, необход имые д ля созд ания группы;

связи межд у ресурсами (род ительские, д очерние и т.п.).

Т ипы ресурсов и иерархия зависят от типа настраиваемой службы.

Приложение B, Параметры ресурсов и Приложение C, Поведение ресурсов высокой готовности сод ержат д альнейшую информацию.

2.7. Валидация cluster.conf Проверка конфигурации осуществляется автоматически во время запуска кластера и перезагрузки конфигурации в соответствии с опред елениями в /usr/share/cluster/cluster.rng. Д ополнительно проверку можно выполнить с помощью ccs_config_validate и ccs (см. Разд ел 5.1.6, «Проверка формата»).

/usr/share/doc/cm an-X.Y.ZZ/cluster_conf.htm l (например, /usr/share/doc/cm ancluster_conf.htm l) сод ержит пример схемы с комментариями.

Буд ет проверено след ующее:

структура XML;

параметры конфигурации;

значения параметров.

Ниже привед ено несколько примеров:

Пример 2.3, «Пример неверного файла cluster.

conf»;

Пример 2.4, «Пример неверной структуры XML в cluster.

conf»;

Пример 2.5, «Пример неверного параметра в cluster.

conf»;

Пример 2.6, «Пример неверного значения в cluster.

conf».

Red Hat Enterprise Linux 6 Ад министрирование кластера Пример 2.3. Пример неверного файла cluster.conf

–  –  –

Неверное значение параметра nodeid в четвертой строке: он не может принимать отрицательные значения.

Red Hat Enterprise Linux 6 Ад министрирование кластера

2.8. NetworkManager Выполнение NetworkManager на узлах кластера не под д ерживается. Д ля корректной работы узла потребуется его уд алить или отключить.

–  –  –

При наличии NetworkManager процесс cm an буд ет невозможно запустить.

2.9. Д иск кворума Служба qdiskd д обавляет эвристический алгоритм д ля мониторинга состояния узла с целью опред еления критических факторов в случае расщепления сети. Например, в обычной ситуации если исход ный кластер с четырьмя узлами был разд елен в пропорции 3:1, три узла получат приоритет как большинство, а четвертый буд ет отключен. qdiskd позволяет изменить это повед ение и пред почесть отд ельный узел, исход я из его способности под ключаться к критическим ресурсам.

–  –  –

Если особых требований к опред елению состояния узла нет, в qdiskd необход имости нет.

Примером особой ситуации служит конфигурация, гд е qdiskd пред оставляет д остаточное число голосов д ля под д ержания кворума, д аже если работает только од ин узел кластера.

–  –  –

Повед ение qdiskd можно изменить в соответствии с инд ивид уальными требованиями.

Под робную информацию можно найти на справочной странице qdisk(5). За помощью рекоменд уется обратиться к официальному пред ставителю службы технической под д ержки Red Hat.

Ниже перечислены основные характеристики, которые нужно учесть при организации кластера с qdiskd.

–  –  –

Время ожид ания CMAN Время ожид ания ответа узла, по истечении которого узел буд ет исключен из кластера.

Обычно это значение как минимум в д ва раза больше времени ожид ания qdiskd, но при необход имости может быть изменено. Д ело в том, что qdiskd д олжен самостоятельно опред елять сбойные узлы, что может занять больше времени по сравнению с аналогичными операциями CMAN. По умолчанию время ожид ания CMAN равно 10 секунд ам. За помощью при опред елении оптимального значения рекоменд уется обратиться к официальному пред ставителю службы технической под д ержки Red Hat.

Отключение узлов При необход имости изоляции узла в кластере с qdiskd рекоменд уется пред почесть метод отключения питания в силу его над ежности.

–  –  –

Максимальное число узлов Кластер с qdiskd может сод ержать д о 16 узлов. Ограничение объясняется сложностями масштабирования при увеличении числа узлов, так как при этом возрастает риск конфликтов ввод а-вывод а на общем д иске кворума.

Д иск кворума Д иск кворума пред ставляет собой общее устройство с параллельным д оступом чтения и записи д ля всех узлов. Минимальный размер — 10 МБ. Примерами устройств, на основе которых можно созд ать д иск кворума, являются многопортовый RAID-массив SCSI, Fibre Channel RAID SAN и цель iSCSI. Созд ать д иск кворума можно с помощью m kqdisk.

Под робную информацию можно найти на справочной странице mkqdisk(8).

–  –  –

В качестве д иска кворума не рекоменд уется использовать JBOD, так как он не может обеспечить необход имую скорость записи. Это, в свою очеред ь, может привести к ошибочному исключению узла из кластера.

2.10. SELinux Комплект высокой д оступности под д ерживает строгий (принуд ительный) режим SELinux и целевой тип политики.

Информацию о SELinux можно найти в руководстве по развертыванию Red Hat Enterprise Linux 6.

2.11. Многоадресная рассылка Узлы кластера взаимод ействуют д руг с д ругом при помощи многоад ресной перед ачи, поэтому настройки сетевого оборуд ования д олжны разрешать многоад ресную рассылку и под д ерживать IGMP (Internet Group Management Protocol). В противном случае некоторые узлы могут не войти в состав кластера, что вызовет его сбой. В таких окружениях рекоменд уется использовать од ноад ресную перед ачу UDP (см. Разд ел 2.12, «Од ноад ресная перед ача UDP»).

–  –  –

Поряд ок настройки сетевых коммутаторов и прочего сетевого оборуд ования д ля разных прод уктов может отличаться. Как правило информацию можно найти в д окументации производ ителя.

2.12. Одноадресная передача UDP Начиная с Red Hat Enterprise Linux 6.2 взаимод ействие узлов кластера может осуществляться с помощью механизма од ноад ресной перед ачи UDP. Т ем не менее, рекоменд уемым метод ом все же является многоад ресная перед ача. Од ноад ресную перед ачу можно использовать, если функции многоад ресной рассылки нед оступны.

Чтобы включить од ноад ресную перед ачу, в cluster.conf д обавьте cm an transport="udpu" или на странице конфигурации сети в окне Conga выберите Unicast (см. Разд ел 3.5.3, «Настройка сети»).

Red Hat Enterprise Linux 6 Ад министрирование кластера

2.13. ricci В Red Hat Enterprise Linux 6 ccsd был заменен на ricci. Д ля успешного обновления конфигурации кластера на кажд ом узле в текстовом (cm an_tool version -r) или графическом режиме luci на всех узлах д олжен быть запущен процесс ricci. Запуск ricci осуществляется с помощью service ricci start или chkconfig (во время загрузки системы). Разд ел 2.3.1, «Д оступ к портам IP на узлах кластера» сод ержит информацию о д оступе ricci к портам.

Начиная с Red Hat Enterprise Linux 6.1, при перед аче обновленной конфигурации кластера с од ного узла на д ругие с помощью ricci в первый раз потребуется указать пароль. Пароль изначально зад ается после установки ricci посред ством выполнения passwd ricci в режиме root.

2.14. Виртуальные машины в кластере Запуск и остановку виртуальных машин в кластере рекоменд уется осуществлять с помощью rgm anager, так как virsh может привести к запуску нескольких копий, что может повред ить д анные.

Чтобы уменьшить вероятность случайного запуска нескольких копий виртуальной машины, не след ует использовать станд артный каталог д ля хранения ее файлов конфигурация, а выбрать д ругое место. В этом случае virsh не сможет найти файлы и не запустит виртуальную машину.

Д ля размещения файлов можно выбрать любой каталог. Д ополнительно, в случае использования общих ресурсов NFS или GFS2 отпад ает необход имость в синхронизации файлов межд у узлами кластера. Можно выбрать и локальный каталог при условии, что синхронизированное сод ержимое хранится в пред елах кластера.

Путь к каталогу с файлами конфигурации опред еляется с помощью атрибута path. Несколько каталогов д олжны разд еляться д воеточием.

–  –  –

На узлах, гд е работает rgm anager, необход имо отключить службу libvirt-guests, так как автоматический запуск и возобновление работы виртуальной машины может привести к запуску нескольких копий.

Т аблица B.24, «Виртуальная машина» сод ержит описание атрибутов ресурсов виртуальных машин.

–  –  –

Глава 3. Настройка кластера в Conga В этой главе рассматривается настройка программных компонентов кластера при помощи Conga.

Глава 4, Управление кластером с помощью Conga сод ержит информацию об управлении работающим кластером.

–  –  –

Conga позволяет осуществить централизованную настройку комплекта Red Hat High Availability в графическом режиме. Но чтобы использовать ее возможности максимально эффективно, необход имо понимать принципы организации кластера. След ует избегать излишних экспериментов с настройками, так как это может привести к снижению работоспособности кластера и сбою служб.

Сод ержание главы:

Разд ел 3.1, «Зад ачи настройки»

Разд ел 3.2, «Запуск luci»

Разд ел 3.3, «Управление д оступом к luci»

Разд ел 3.4, «Созд ание кластера»

Разд ел 3.5, «Глобальные параметры кластера»

Разд ел 3.6, «Настройка устройств изоляции»

Разд ел 3.7, «Исключение узлов из кластера»

Разд ел 3.8, «Настройка резервного д омена»

Разд ел 3.9, «Настройка глобальных ресурсов кластера»

Разд ел 3.10, «Д обавление службы в кластер»

3.1. Задачи настройки Ниже перечислены основные этапы настройки программных компонентов кластера в Conga.

1. Разд ел 3.2, «Запуск luci».

2. Разд ел 3.4, «Созд ание кластера».

3. Разд ел 3.5, «Глобальные параметры кластера».

4. Разд ел 3.6, «Настройка устройств изоляции».

5. Разд ел 3.7, «Исключение узлов из кластера».

6. Разд ел 3.8, «Настройка резервного д омена».

7. Разд ел 3.9, «Настройка глобальных ресурсов кластера».

8. Разд ел 3.10, «Д обавление службы в кластер».

3.2. Запуск luci Установка ricci

На кажд ом узле кластера под управлением luci необход имо установить ricci (см.

Разд ел 2.13, «ricci»).

Как уже упоминалось, при д обавлении нового узла в кластер потребуется ввести пароль ricci (см. Разд ел 3.4, «Созд ание кластера»).

Пред варительно на узлах кластера над о открыть порт 11111 д ля разрешения под ключений с сервера luci (см. Разд ел 2.3.1, «Д оступ к портам IP на узлах кластера»).

Д алее рассматривается поряд ок установки luci.

Red Hat Enterprise Linux 6 Ад министрирование кластера

1. Выберите компьютер д ля установки luci и выполните:

–  –  –

Обычно д ля luci выд еляется отд ельный компьютер в центре обработки д анных; тем не менее, luci можно установить и на узле в составе кластера.

–  –  –

Начиная с Red Hat Enterprise Linux 6.1 некоторые параметры luci можно опред елить в файле /etc/sysconfig/luci. Т ак, зд есь можно изменить порт и параметры узла (см. Разд ел 2.4, «/etc/sysconfig/luci»). При след ующем запуске luci строка ад реса буд ет сод ержать новый номер порта.

3. В ад ресной строке веб-браузера введ ите ад рес сервера luci в формате https://узел:порт. По умолчанию используется порт 8084.

При первом обращении к luci появится окно под твержд ения сертификата SSL. После этого откроется форма авторизации в luci.

4. Д ля авторизации можно использовать д анные любого пользователя системы, гд е установлено приложение luci, но начиная с Red Hat Enterprise Linux 6.2 только пользователь root изначально облад ает правами д оступа к компонентам luci (см.

Разд ел 3.3, «Управление д оступом к luci»).

После успешной авторизации буд ет показана д омашняя страница (см. Рисунок 3.1, «Д омашняя страница luci»).

–  –  –

Неактивный сеанс буд ет автоматически завершен после 15 минут.

3.3. Управление доступом к luci В Red Hat Enterprise Linux 6 постепенно д обавлялись новые функции на странице Users and Permisions.

Начиная с Red Hat Enterprise Linux 6.2 пользователь root и ад министраторы luci могут управлять правами д оступа пользователей к компонентам luci.

В Red Hat Enterprise Linux 6.3 пользователь root и ад министраторы luci получили возможность д обавления пользователей в окне интерфейса luci.

В Red Hat Enterprise Linux 6.4 пользователь root и ад министраторы luci д ополнительно получили возможность уд аления пользователей.

Д ля этого над о сначала войти в luci как root или ад министратор и выбрать Admin в правом верхнем углу. Появится список существующих пользователей.

Чтобы уд алить пользователей, выберите их и нажмите Delete Selected.

Чтобы д обавить пользователя, нажмите Add a User и введ ите его имя.

Д ополнительно можно изменить разрешения д ля выбранного пользователя:

Luci Adm inistrator (ад министратор luci) Пред оставляет пользователю права ад министратора: полный д оступ ко всем кластерам, возможность пред оставления и запрета разрешений д ля всех пользователей кроме root.

Can Create Clusters (может созд авать кластер) Разрешает созд ание новых кластеров (см. Разд ел 3.4, «Созд ание кластера»).

Can Im port Existing Clusters (может импортировать кластеры) Разрешает д обавлять существующие кластеры в luci (см. Разд ел 4.1, «Д обавление кластера в luci»).

После созд ания или д обавления кластера можно настроить правила д оступа д ля отд ельных пользователей:

Can View T his Cluster (просмотр кластера) Разрешение просмотра кластера.

Can Change the Cluster Configuration (изменение конфигурац ии кластера) Разрешение изменения конфигурации кластера за исключением д обавления и уд аления узлов.

Can Enable, Disable, Relocate, and Migrate Service Groups (может включать, выключать, осуществлять перенос и миграц ию групп служб) Разрешение управления службами высокой готовоности (см. Разд ел 4.5, «Управление Red Hat Enterprise Linux 6 Ад министрирование кластера

–  –  –

Can Stop, Start, and Reboot Cluster Nodes (может останавливать, запускать и перезагружать узлы кластера) Разрешение управления отд ельными узлами кластера (см. Разд ел 4.3, «Управление узлами кластера»).

Can Add and Delete Nodes (может д обавлять и уд алять узлы) Разрешение д обавления и уд аления узлов (см. Разд ел 3.4, «Созд ание кластера»).

Can Rem ove T his Cluster from Luci (может уд алять кластер из Luci) Разрешение уд аления кластера из luci (см. Разд ел 4.4, «Запуск, остановка, перезапуск и уд аление кластера»).

Нажмите Subm it, чтобы применить изменения, или Reset, чтобы восстановить исход ные значения.

3.4. Создание кластера Д ля созд ания кластера при помощи luci потребуется опред елить его имя, д обавить узлы в его состав, указав пароль ricci д ля кажд ого узла. После этого Conga установит необход имые программы на узлах и запустит кластер.

1. В левой панели навигации выберите пункт Manage Clusters. Появится окно управления (см. Рисунок 3.2, «Окно управления кластером»).

Рисунок 3.2.

Окно управления кластером

2. Выберите пункт созд ания кластера (см. Рисунок 3.3, «Д иалог созд ания кластера luci»).

–  –  –

Рисунок 3.3.

Д иалог созд ания кластера luci

3. Ниже перечислены поля, которые след ует заполнить.

В поле Cluster Name введ ите имя кластера. Его д лина не д олжна превышать 15 знаков.

Если пароли ricci од инаковы д ля всех узлов, установите флажок Use the same password for all nodes.

В поле Node Name введ ите имя узла, а в поле Password — пароль ricci.

Если компьютер вход ит в состав закрытой сети, в поле Ricci Hostname введ ите ад рес этой сети.

Если ricci д олжен использовать нестанд артный порт (по умолчанию — 11111), измените номер порта.

Чтобы д обавить д ругой узел, нажмите Add Another Node.

Выберите Use locally installed packages, чтобы не обновлять кластерные программы на узле. В противном случае выберите Download Packages.

–  –  –

Нед остающие критические программы кластера буд ут установлены в любом случае, независимо от выбранного выше варианта. К критическим программам относятся cm an, rgm anager, m odcluster и их зависимости. Если не уд алось их установить, узел созд ать тоже не получится.

Д ополнительно можно выбрать перезагрузку узлов (Reboot nodes before joining cluster).

Д ля организации кластерного хранилища выберите Enable shared storage support:

буд ут загружены необход имые пакеты и включены возможности LVM. Не след ует выбирать этот пункт при отсутствии комплектов отказоустойчивого хранилища и масштабируемой файловой системы.

4. Нажмите кнопку созд ания кластера. Буд ут выполнены след ующие д ействия:

a. Если был выбран пункт Download Packages, на д обавляемые компьютеры буд ут загружены необход имые программы.

b. Загруженные программы кластера буд ут установлены на всех компьютерах.

c. Файл конфигурации кластера буд ет обновлен и перед ан всем узлам кластера.

Red Hat Enterprise Linux 6 Ад министрирование кластера d. Перечисленные компьютеры буд ут д обавлены в состав кластера.

Наконец, появится окно состояния полученного кластера (см. Рисунок 3.4, «Список компонентов кластера»). Стоит отметить, что если процесс ricci выполняется не на всех узлах, созд ание кластера завершится неуд ачей.

Рисунок 3.4.

Список компонентов кластера

5. С помощью кнопок д обавления и уд аления узлов в верхней строке меню можно изменить состав кластера. Уд аляемые узлы сначала над о остановить (см. Разд ел 4.3.4, «Уд аление узла из кластера»).

–  –  –

3.5. Глобальные параметры кластера Д ля переход а к странице глобальных параметров в верхней строке меню выберите Configure. В открывшемся окне буд ут д оступны вклад ки General, Fence Daemon, Network, Redundant Ring, QDisk и Logging. Ниже сод ержимое этих вклад ок буд ет рассмотено более под робно.

3.5.1. Настройка глобальных параметров На вклад ке General можно просмотреть и изменить общие настройки.

Поле Cluster Name сод ержит имя кластера. Это значение изменить нельзя. Ед инственным способом изменения имени является созд ание новой конфигурации кластера с д ругим именем.

Значение Configuration Version изначально равно 1 и автоматически увеличивается на ед иницу кажд ый раз при изменении конфигурации. По желанию можно установить д ругое значение, указав его в этом поле.

Чтобы применить изменения, нажмите Apply.

3.5.2. Настройка fenced Глобальные настройки процесса fenced можно изменить на вклад ке Fence Daemon, в том числе д лительность интервалов ожид ания Post Fail Delay и Post Join Delay. Чтобы настроить отд ельные устройства д ля отключения узлов, выберите пункт Fence Devices (см. Разд ел 3.6,

–  –  –

«Настройка устройств изоляции»).

Post fail delay — время ожид ания (в секунд ах), которое д олжно истечь, прежд е чем сбойный узел буд ет отключен. По умолчанию установлен в 0.

Post Join Delay — время ожид ания (в секунд ах), которое д олжно истечь, прежд е чем fenced отключит узел после его переход а в резервный д омен. Обычно равен 20-30 секунд ам (по умолчанию — 6).

Чтобы применить изменения, нажмите Apply.

–  –  –

Под робную информацию о перечисленных параметрах можно найти на справочной странице fenced(8).

3.5.3. Настройка сети На вклад ке Network можно изменить настройки сетевых под ключений.

Ниже перечислены д оступные параметры.

UDP multicast and let cluster choose the multicast address (многоад ресная рассылка UDP и выбор многоад ресной перед ачи) Этот параметр установлен по умолчанию. Red Hat High Availability созд аст широковещательный ад рес исход я из ид ентификатора кластера. Т ак, буд ут сгенерированы послед ние 16 бит, которые буд ут д обавлены к первой части ад реса, которая опред еляется протоколом (IPv4 или IPv6).

Ад рес формируется след ующим образом:

Д ля IPv4 — 239.192. плюс 16 бит, сформированных комплектом Red Hat High Availability.

Д ля IPv6 — FF15:: плюс 16 бит, сгенерированных комплектом Red Hat High Availability.

–  –  –

cm an генерирует уникальный ид ентификатор кластера. Чтобы его узнать, выполните cm an_tool status.

UDP Multicast and Specify the Multicast Address Manually (многоад ресная рассылка UDP и многоад ресная перед ача вручную) Этот пункт разрешает указать конкретный ад рес в поле Multicast Address.

Ад рес д олжен быть опред елен в формате 239.192.x.x (или FF15:: д ля IPv6), совместимом с cm an. Неверный ад рес может привести к непред сказуемым результатам, например может оказаться так, что ад рес 224.0.0.x, охватывающий все узлы в сети, неверно маршрутизируется оборуд ованием.

Чтобы изменения вступили в силу, потребуется перезагрузить кластер (см. Разд ел 4.4, «Запуск, остановка, перезапуск и уд аление кластера»).

–  –  –

При указании широковещательного ад реса необход имо убед иться, что настройки маршрутизаторов д опускают прохожд ение пакетов кластера. Некоторые маршрутизаторы не сразу распознают под обные ад реса, что отрицательно сказывается на производ ительности.

UDP Unicast (UDPU) Red Hat Enterprise Linux 6 Ад министрирование кластера Начиная с Red Hat Enterprise Linux 6.2 взаимод ействие узлов в кластере может осуществляться с помощью механизма од ноад ресной перед ачи UDP. Т ем не менее, рекоменд уемым метод ом все так же является многоад ресная перед ача, особенно в окружениях GFS2. Од ноад ресная перед ача может выступать в роли запасного варианта, если возможности многоад ресной рассылки нед оступны.

Чтобы применить изменения, нажмите Apply. Если был изменен тип протокола, потребуется перезагрузить кластер.

3.5.4. Настройка протокола избыточного кольца Начиная с Red Hat Enterprise Linux 6.4 комплект Red Hat High Availability под д ерживает возможности настройки протокола избыточного кольца (см. Разд ел 7.6, «Настройка протокола избыточного кольца»).

На вклад ке Redundant Ring пред ставлен список узлов кластера. Если настройки системы д опускают использование избыточного кольца, в поле Alternate Name необход имо опред елить имена узлов д ля второго кольца.

На странице конфигурации протокола можно д ополнительно заполнить поля Alternate Ring Multicast Address, Alternate Ring CMAN Port, Alternate Ring Multicast Packet T T L д ля второго кольца.

Если д ля второго кольца был опред елен ад рес многоад ресной рассылки, он д олжен отличаться от ад реса первого кольца. Если вы опред елили д ополнительный порт, номера портов первого и второго кольца д олжны отличаться как минимум на д ва, так как сама система использует основной порт и порт с номером на ед иницу меньше. Если же д ополнительный ад рес не зад ан, он буд ет выбран автоматически.

3.5.5. Настройка диска кворума На вклад ке QDisk можно изменить настройки д иска кворума.

–  –  –

Повед ение qdiskd можно изменить в соответствии с требованиями окружения.

Под робную информацию можно найти на справочной странице qdisk(5). За д ополнительной помощью рекоменд уется обратиться к официальному пред ставителю службы технической под д ержки Red Hat.

Параметр Do not use a Quorum Disk по умолчанию установлен. Если необход имо использовать д иск кворума, выберите Use a Quorum Disk, нажмите Apply и перезапустите кластер.

Т аблица 3.1, «Параметры д иска кворума» сод ержит список параметров.

–  –  –

Нажмите Apply. Изменения буд ут сохранены в /etc/cluster/cluster.conf на всех узлах кластера. Д ля перезапуска qdiskd след ует перезагрузить кластер (см. Разд ел 4.4, «Запуск, остановка, перезапуск и уд аление кластера»).

3.5.6. Настройка журналирования На вклад ке Logging можно изменить настройки журналирования.

Ниже перечислены глобальные настройки.

Log debugging messages — регистрация сообщений отлад ки в журнале.

Log messages to syslog — регистрация сообщений отлад ки в syslog. Д ополнительно можно выбрать Syslog message priority (сохранение сообщений с выбранным приоритетом) и Syslog message facility.

Log messages to log file — регистрация событий в журнале. В поле Log File Path можно указать путь к файлу. Д ополнительно можно выбрать Syslog message priority (сохранение сообщений с выбранным приоритетом).

Глобальные настройки можно переопред елить, выбрав интересующую службу внизу страницы и изменив ее параметры (включая параметры журнала и syslog).

Нажмите Apply.

3.6. Настройка устройств изоляции Red Hat Enterprise Linux 6 Ад министрирование кластера Настройка исключающих устройств охватывает их созд ание, уд аление и изменение конфигурации.

Процесс созд ания состоит из выбора типа устройства и опред еления его параметров (имени, IPад реса, имени пользователя, пароля). Настройки выбранного устройства могут быть изменены.

Процесс уд аления включает в себя выбор устройства и, собственно, его уд аление.

Сод ержание этой секции:

Разд ел 3.6.

1, «Созд ание устройства изоляции». После его успешного созд ания можно отд ельно настроить устройства д ля кажд ого узла в кластере (см. Разд ел 3.7, «Исключение узлов из кластера»).

Разд ел 3.6.

2, «Изменение параметров устройств изоляции».

Разд ел 3.6.

3, «Уд аление устройства изоляции».

Чтобы настроить устройства изоляции, выберите Fence Devices в верхней части страницы кластера. Появится список устройств и кнопки изменения, уд аления и д обавления новых устройств.

–  –  –

Изначально список устройств буд ет пуст.

Рисунок 3.5, «Окно настройки устройств изоляции в luci» д емонстрирует окно устройств с пустым списком.

Рисунок 3.5.

Окно настройки устройств изоляц ии в luci 3.6.1. Создание устройства изоляции

Поряд ок созд ания устройства:

1. На странице Fence Devices нажмите Add и выберите тип д обавляемого устройства.

2. Заполните форму Add Fence Device (Instance) в соответствии с выбранным типом (см. Приложение A, Параметры устройств изоляции). Д ополнительно может потребоваться опред елить параметры устройства д ля конкретных узлов (см. Разд ел 3.7, «Исключение узлов из кластера»).

–  –  –

3. Нажмите Subm it.

Устройство буд ет д обавлено в общий список устройств.

3.6.2. Изменение параметров устройств изоляции

Поряд ок изменения параметров:

1. Выберите устройство в окне Fence Devices д ля переход а к его настройкам.

2. Внесите изменения (см. Приложение A, Параметры устройств изоляции).

3. Нажмите Apply.

3.6.3. Удаление устройства изоляции Примечание Устройства, к которым осуществляется обращение, нельзя уд алить — сначала след ует обновить конфигурацию узла и уже после этого уд алить устройство.

Поряд ок уд аления:

1. Выберите устройства в окне Fence Devices.

2. Нажмите Delete и д ожд итесь под твержд ения.

Устройство буд ет уд алено из списка.

3.7. Исключение узлов из кластера После успешного созд ания кластера и исключающих устройств можно настроить алгоритм изоляции узлов.

Сод ержание этой главы:

Разд ел 3.7.

1, «Настройка устройства изоляции»

Разд ел 3.7.

2, «Настройка запасного устройства изоляции»

Разд ел 3.7.

3, «Настройка запасных источников питания»

3.7.1. Настройка устройства изоляции Ниже рассматривается поряд ок настройки ед инственного устройства изоляции д ля узла.

1. В главном меню кластера выберите Nodes д ля переход а к списку узлов. Этот список также можно открыть, выбрав имя кластера в секции Manage Clusters на д омашней странице luci.

2. Щелкните на имени узла д ля переход а к его настройкам.

На этой странице буд ут показаны активные службы и резервные д омены, в состав которых вход ит д анный компьютер (см. Разд ел 3.8, «Настройка резервного д омена»).

3. В секции Fence Devices выберите Add Fence Method — появится окно Add Fence Method to Node.

4. В поле Method Name введ ите произвольное имя.

5. Нажмите Subm it.

6. Чтобы д обавить устройство д ля этого метод а, нажмите Add Fence Instance и выберите настроенное устройство (см. Разд ел 3.6.1, «Созд ание устройства изоляции»).

7. Если устройство требует отд ельно опред елить параметры д ля узла, буд ет пред ложено их настроить (см. Приложение A, Параметры устройств изоляции).

Red Hat Enterprise Linux 6 Ад министрирование кластера

–  –  –

Д ля метод ов управления д оступом к хранилищу/SAN пункт Unfencing в списке параметров буд ет выбран по умолчанию. Этот параметр пред отвращает под ключение исключенного узла к хранилищу д о тех пор, пока он не буд ет перезагружен. Под робную информацию можно найти на справочной странице fence_node(8).

8. Нажмите Subm it.

3.7.2. Настройка запасного устройства изоляции Д ля од ного узла можно опред елить несколько алгоритмов изоляции. Если од ин метод не работает, буд ет выбран след ующий и т.п.

Ниже рассматривается поряд ок настройки запасного устройства д ля узла.

1. Настройте основной алгоритм (см. Разд ел 3.7.1, «Настройка устройства изоляции»).

2. В нижней части окна алгоритма нажмите Add Fence Method.

3. Введ ите имя алгоритма и нажмите Subm it. Новый алгоритм появится в списке след ом за основным метод ом.

4. Чтобы д обавить устройство д ля этого метод а, нажмите Add Fence Instance под его именем и выберите пред варительно настроенное устройство (см. Разд ел 3.6.1, «Созд ание устройства изоляции»).

5. Если устройство требует отд ельно опред елить параметры д ля узла, буд ет пред ложено их настроить (см. Приложение A, Параметры устройств изоляции).

6. Нажмите Subm it.

При необход имости можно д обавить д ругие алгоритмы. Их поряд ок можно изменить с помощью кнопок Move Up и Move Down.

3.7.3. Настройка запасных источников питания Если в кластере настроено несколько источников питания, д ля изоляции узла потребуется отключить все его источники. Если кажд ый источник контролируется отд ельным алгоритмом, он буд ет отключаться отд ельно и вместо него просто начнет использоваться д ругой источник, тем самым пред отвращая изоляцию узла. Т ак, если узел использует д ва источника питания, д ля их од новременного отключения над о буд ет настроить д ва устройства д ля од ного метод а изоляции.

Ниже рассматривается поряд ок отключения узла с д вумя источниками питания.и

1. Сначала над о опред елить оба источника питания как устройства изоляции (см. Разд ел 3.6, «Настройка устройств изоляции»).

2. В главном меню страницы кластера выберите Nodes д ля переход а к списку узлов. Этот список также можно открыть, выбрав имя кластера в секции Manage Clusters на д омашней странице luci.

3. Щелкните на имени узла д ля переход а к его настройкам.

4. На странице узла нажмите Add Fence Method.

5. Введ ите имя метод а изоляции.

6. Нажмите Subm it.

7. Д обавьте первый источник питания, нажав Add Fence Instance под названием алгоритма. В открывшемся меню выберите пред варительно настроенное устройство (см.

Разд ел 3.6.

1, «Созд ание устройства изоляции»).

8. Выберите источник питания и заполните его параметры.

Глава 3. Настройка кластера в Conga

9. Нажмите Subm it.

10. Д обавьте второй источник питания, нажав Add Fence Instance. В открывшемся меню выберите пред варительно настроенное устройство (см. Разд ел 3.6.1, «Созд ание устройства изоляции»).

11. Выберите второй источник питания и заполните его параметры.

12. Нажмите Subm it. Появится окно узла со списком настроенных алгоритмов и устройств (см.

Рисунок 3.6, «Конфигурация с д вумя источниками питания»).

Рисунок 3.6.

Конфигурац ия с д вумя источниками питания

3.8. Настройка резервного домена Резервный д омен — под множество узлов кластера, гд е буд ет восстановлена работа кластерной службы в случае сбоя узла. Ниже перечислены основные типы резервных д оменов.

Неограниченный — позволяет указать пред почитаемую группу узлов. При этом служба, закрепленная за этим д оменом, может работать на любом д оступном узле.

Ограниченный — кластерная служба может выполняться только на заранее опред еленных узлах. Если в д омене не осталось д оступных узлов, кластерная служба не сможет быть запущена.

Неупоряд оченный — восстановление службы после сбоя может происход ить на любом узле в составе д омена без каких-либо пред почтений.

Упоряд оченный — позволяет опред елить поряд ок выбора узлов д ля восстановления службы.

Узел в начале списка является наиболее пред почтительным, в конце — наименее пред почтительным.

С возвратом — разрешает возврат службы на исход ный узел после его восстановления. Это Red Hat Enterprise Linux 6 Ад министрирование кластера помогает при период ических сбоях узла, вход ящего в состав упоряд оченного д омена, так как если узел является пред почтительным, может оказаться так, что служба буд ет бесконечно переноситься с него на д ругой узел и обратно, что значительно снизит производ ительность.

–  –  –

Д ля нормальной работы кластера резервные д омены необязательны.

Загрузка...

По умолчанию используется неограниченный и неупоряд оченный тип д омена.

В кластере с большим числом узлов использование ограниченного резервного д омена отменяет необход имость настройки запуска кластерных служб (например, httpd) на всех узлах. Вместо этого над о буд ет настроить лишь узлы из резервного д омена.

–  –  –

Д ля настройки приоритетного узла можно созд ать неограниченный д омен, включающий всего од ин узел. Это гарантирует, что служба буд ет выполняться именно на этом узле, а в случае сбоя буд ет перенесена на любой д ругой узел кластера.

Д альнейшее сод ержимое этой главы:

Разд ел 3.8.

1, «Д обавление резервного д омена»

Разд ел 3.8.

2, «Изменение резервного д омена»

Разд ел 3.8.

3, «Уд аление резервного д омена»

3.8.1. Д обавление резервного домена Ниже рассматривается поряд ок д обавления резервного д омена.

1. В главном меню кластера выберите Failover Domains д ля переход а к списку его резервных д оменов.

2. Нажмите Add д ля переход а к д иалогу д обавления д омена (см. Рисунок 3.7, «Окно настройки резервного д омена»).

–  –  –

Рекоменд уется указать информативное имя, которое поможет легко ид ентифицировать д омен.

4. Если при выборе запасного узла д олжен учитываться приоритет, установите флажок Prioritized и укажите приоритет в поле Priority.

5. Пункт Restricted отвечает за восстановление работы сбойной службы только на узлах, вход ящих в состав резервного д омена.

6. Если установлен флажок No Failback, то при возобновлении работы исход ного узла выполняемая на запасном узле служба не буд ет переноситься обратно.

7. Чтобы д обавить узел в д омен, установите флажок Member напротив его имени. Если выше был выбран пункт Prioritized, укажите значение в поле Priority.

8. Нажмите Create. Появится под твержд ение созд ания д омена.

3.8.2. Изменение резервного домена Ниже рассматривается поряд ок изменения резервного д омена.

1. В главном меню кластера выберите Failover Domains д ля переход а к списку его резервных д оменов.

2. Выберите д омен д ля переход а к странице его настроек.

3. Измените параметры Prioritized, Restricted, No Failback в соответствии со своими требованиями и нажмите Update Properties, чтобы применить изменения.

4. Чтобы д обавить узлы или исключить их из кластера, измените статус Member напротив кажд ого узла. Д ля упоряд оченных д оменов можно д ополнительно изменить приоритет Red Hat Enterprise Linux 6 Ад министрирование кластера узлов. Завершив, нажмите Update Properties.

3.8.3. Удаление резервного домена Ниже рассматривается поряд ок уд аления резервного д омена.

1. В главном меню кластера выберите Failover Domains д ля переход а к списку его резервных д оменов.

2. Выберите д омен д ля уд аления.

3. Нажмите Delete.

3.9. Настройка глобальных ресурсов кластера В кластер можно д обавить глобальные ресурсы (буд ут д оступны всем службам) и частные (буд ут д оступны выборочным службам).

Ниже рассматривается поряд ок д обавления глобальных кластерных ресурсов. Информацию о д обавлении локальных ресурсов д ля отд ельных служб можно найти в след ующем разд еле (см.

Разд ел 3.10, «Д обавление службы в кластер»).

1. В главном меню страницы кластера выберите Resources д ля переход а к списку настроенных ресурсов.

2. Нажмите Add д ля переход а к д иалогу д обавления ресурсов.

3. Из выпад ающего списка выберите тип ресурса.

4. Введ ите параметры (см. Приложение B, Параметры ресурсов).

5. Нажмите Subm it. Новый ресурс буд ет д обавлен в список ресурсов кластера.

Поряд ок изменения ресурса:

1. Выберите ресурс на странице Resources.

2. Измените параметры.

3. Нажмите Apply.

Поряд ок уд аления ресурса:

1. Выберите ресурс на странице Resources.

2. Нажмите Delete.

3.10. Д обавление службы в кластер Ниже рассматривается поряд ок д обавления кластерных служб в кластер.

1. В главном меню страницы кластера выберите Service Groups д ля переход а к списку служб (см. Разд ел 4.5, «Управление службами высокой готовности»).

2. Чтобы д обавить службу, нажмите Add.

3. В поле Service name введ ите имя службы.

–  –  –

4. Флажок Automatically start this service отвечает за автоматический запуск службы при запуске кластера. Если не установлен, службу над о буд ет запустить вручную.

5. Run exclusive разрешает запуск службы при условии, если на узле не выполняются д ругие службы.

–  –  –

6. Если резервные д омены уже настроены, выберите д омен из списка Failover domain (см.

Разд ел 3.8, «Настройка резервного д омена»).

7. В списке Recovery policy д оступны след ующие значения: Relocate, Restart, RestartDisable, Disable.

При выборе Restart система попытается перезапустить сбойную службу д о ее переноса на д ругой узел. Relocate под разумевает перезапуск службы на д ругом узле, Disable отключит группу ресурсов при сбое ее компонентов. При выборе Restart-Disable система буд ет пытаться запустить службу, но в случае неуд ачи она буд ет отключена.

Если выбрана политика Restart или Restart-Disable, можно указать максимальное число попыток перезапуска службы и время ожид ания, по истечении которого перезапуск буд ет отменен.

8. Нажмите Add resource д ля переход а к д иалогу, гд е можно д обавить существующий глобальный ресурс или созд ать новый ресурс исключительно д ля выбранной службы.

Чтобы д обавить глобальный ресурс, выберите его из списка Add Resource T o Service (см. Разд ел 3.9, «Настройка глобальных ресурсов кластера»).

Чтобы д обавить новый ресурс д ля конкретной службы, выберите тип из списка Add a resource и опред елите его настройки (см. Приложение B, Параметры ресурсов).

Д ля обоих типов ресурсов можно выбрать Independent subtree или Non-critical resource.

Если выбрано Independent subtree, в случае сбоя ресурса буд ет перезапущен только сам ресурс, а не вся служба. Д ополнительно можно опред елить максимальное число попыток перезапуска, после чего управление буд ет перед ано политике восстановления.

Т акже можно указать время ожид ания, по истечении которого политика восстановления вступит в силу.

Если ресурс опред елен как некритический, то при его сбое буд ет перезапущен только он. Если перезапуск не помог, буд ет отключен только этот ресурс, в то время как служба отключаться не буд ет. Д ополнительно можно опред елить максимальное число попыток перезапуска, после чего ресурс буд ет отключен. Т акже можно указать время ожид ания, по истечении которого буд ет выполнено его отключение.

9. Д ополнительно можно д обавить под чиненные ресурсы. Д ля этого нажмите Add a child resource д ля переход а к д иалогу д обавления ресурсов.

–  –  –

Ресурсы Samba не могут быть под чиненными и д олжны быть д обавлены напрямую.

10. Завершив д обавление, нажмите Subm it.

Red Hat Enterprise Linux 6 Ад министрирование кластера

–  –  –

Чтобы проверить наличие ресурса IP-службы, используемого кластерной службой, на узле кластера можно выполнить /sbin/ip addr show вместо устаревшей команд ы

ifconfig. Ниже привед ен пример вывод а:

1: lo: LOOPBACK,UP mtu 16436 qdisc noqueue link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00 inet 127.0.0.1/8 scope host lo inet6 ::1/128 scope host valid_lft forever preferred_lft forever 2: eth0: BROADCAST,MULTICAST,UP mtu 1356 qdisc pfifo_fast qlen 1000 link/ether 00:05:5d:9a:d8:91 brd ff:ff:ff:ff:ff:ff inet 10.11.4.31/22 brd 10.11.7.255 scope global eth0 inet6 fe80::205:5dff:fe9a:d891/64 scope link inet 10.11.4.240/22 scope global secondary eth0 valid_lft forever preferred_lft forever

Поряд ок изменения существующей службы:

1. Выберите службу на странице Service Groups д ля переход а к странице ее настроек.

2. Измените параметры.

3. Нажмите Subm it.

Поряд ок уд аления служб:

1. Выберите службы на странице Service Groups.

2. Нажмите Delete.

3. В Red Hat Enterprise Linux 6.3 сначала появится запрос под твержд ения уд аления. Cancel закроет д иалог без уд аления, а Proceed уд алит службы.

–  –  –

Глава 4. Управление кластером с помощью Conga В этой главе рассматриваются зад ачи управления комплектом Red Hat High Availability.

Сод ержание:

Разд ел 4.1, «Д обавление кластера в luci»

Разд ел 4.2, «Уд аление кластера из luci»

Разд ел 4.3, «Управление узлами кластера»

Разд ел 4.4, «Запуск, остановка, перезапуск и уд аление кластера»

Разд ел 4.5, «Управление службами высокой готовности»

Разд ел 4.6, «Созд ание резервной копии и восстановление конфигурации luci»

4.1. Д обавление кластера в luci Прежд е чем приступить к управлению настройками кластера, над о его зарегистрировать в Conga.

Выполните след ующее:

1. В левой панели навигации выберите пункт Manage Clusters. Появится окно управления кластерами.

2. Нажмите Add.

3. Введ ите имена узлов и пароли ricci д ля всех узлов в кластере. Этого д олжно быть д остаточно д ля д обавления кластера, так как узлы включают информацию о его конфигурации.

4. Нажмите Connect. В открывшемся окне буд ет показано имя кластера и перечислены остальные узлы.

5. Если пароли ricci од инаковы д ля всех узлов, установите флажок Use the same password for all nodes.

6. Нажмите Add Cluster. Кластер станет д оступен на странице Manage Clusters.

4.2. Удаление кластера из luci Кластер может быть уд ален из интерфейса luci. Это не скажется на его составе и работе служб.

Уд аленный кластер можно буд ет впослед ствии снова д обавить (см. Разд ел 4.1, «Д обавление кластера в luci»).

Чтобы уд алить кластер из интерфейса luci, выполните след ующее:

1. В левой панели навигации выберите пункт Manage Clusters. Появится окно управления кластерами.

2. Выберите кластеры д ля уд аления.

3. Нажмите Remove.

Разд ел 4.4, «Запуск, остановка, перезапуск и уд аление кластера» сод ержит информацию об остановке служб кластера, уд алении конфигурации с узлов и уд алении кластера полностью.

4.3. Управление узлами кластера В этой секции рассматриваются основные функции управления узлами кластера.

Разд ел 4.3.

1, «Перезагрузка узла»

Разд ел 4.3.

2, «Д обавление и уд аление узлов»

Разд ел 4.3.

3, «Д обавление узла в работающий кластер»

Разд ел 4.3.

4, «Уд аление узла из кластера»

Red Hat Enterprise Linux 6 Ад министрирование кластера 4.3.1. Перезагрузка узла

Поряд ок перезагрузки узла:

1. В главном меню страницы кластера выберите Nodes д ля переход а к списку узлов. Этот список также можно открыть, выбрав имя кластера в секции Manage Clusters на д омашней странице luci.

2. Выберите узел.

3. В верхнем меню выберите Reboot. Появится под твержд ение.

4. Чтобы получить текущий статус, обновите страницу.

Чтобы перезагрузить несколько узлов сразу, отметьте их и нажмите Reboot.

4.3.2. Д обавление и удаление узлов С помощью Conga можно д обавить или исключить узел из кластера, пред варительно остановив работающие кластерные службы.

При исключении узла настройки кластера не буд ут уд алены, а сам узел буд ет д оступен в списке узлов со статусом Not a cluster m em ber (см Разд ел 4.3.4, «Уд аление узла из кластера»).

Ниже привед ен поряд ок уд аления узла из кластера. Уд аленный узел не буд ет включен в состав кластера д аже после перезагрузки.

1. В главном меню страницы кластера выберите Nodes д ля переход а к списку узлов. Этот список также можно открыть, выбрав имя кластера в секции Manage Clusters на д омашней странице luci.

2. Выберите узел.

3. В верхнем меню выберите Leave Cluster. Появится сообщение об остановке узла.

4. Чтобы получить текущий статус, обновите страницу.

Чтобы уд алить несколько узлов, отметьте их и нажмите Leave Cluster.

Чтобы вернуть узлы в состав кластера, выберите их и нажмите Join Cluster.

4.3.3. Д обавление узла в работающий кластер Ниже рассматривается поряд ок д обавления узла в работающий кластер.

1. В главном меню страницы кластера выберите Nodes д ля переход а к списку узлов. Список также можно открыть, выбрав имя кластера в секции Manage Clusters на д омашней странице luci.

2. Нажмите Add д ля переход а к д иалогу д обавления узлов.

3. В поле Node Hostname введ ите имя узла, а в поле Password — пароль ricci. Если ricci использует нестанд артный порт (по умолчанию — 11111), измените номер порта.

4. Д ля организации кластерного хранилища выберите Enable shared storage support: буд ут загружены необход имые пакеты и включены возможности LVM. Не след ует выбирать этот пункт при отсутствии комплектов отказоустойчивого хранилища и масштабируемой файловой системы.

5. Чтобы д обавить д ругой узел, нажмите Add Another Node.

6. Нажмите Add Nodes.

a. Если был выбран пункт Download Packages, на д обавляемые компьютеры буд ут загружены необход имые программы.

b. Загруженные программы буд ут установлены.

c. Файл конфигурации кластера буд ет обновлен и перед ан всем узлам кластера.

d. Узел буд ет д обавлен в состав кластера.

Появится страница Nodes и под твержд ение д обавления узла в кластер. Чтобы получить

–  –  –

текущий статус, обновите страницу.

7. Чтобы настроить изоляцию узла, щелкните на его имени (см. Разд ел 3.6, «Настройка устройств изоляции»).

4.3.4. Удаление узла из кластера Ниже рассматривается уд аление узла из работающего кластера. Сначала потребуется остановить узел за исключением случаев, когд а од новременно уд аляются все узлы.

1. В главном меню страницы кластера выберите Nodes д ля переход а к списку узлов. Список также можно открыть, выбрав имя кластера в секции Manage Clusters на д омашней странице luci.

–  –  –

Чтобы инициировать восстановление работающих служб при уд алении узла, перейд ите к след ующему шагу.

2. Отключите или переместите службы, которые буд ут уд алены (см. Разд ел 4.5, «Управление службами высокой готовности»).

3. Выберите узлы д ля уд аления.

4. Нажмите Delete. Появится страница Nodes и под твержд ение уд аления. Чтобы получить текущий статус, обновите страницу.

–  –  –

Операцию уд аления узла из кластера нельзя отменить.

4.4. Запуск, остановка, перезапуск и удаление кластера На вклад ке Nodes страницы кластера можно запустить, остановить и перезапустить его узлы.

Запуск и перезапуск узлов позволяет искуственно созд ать ситуацию переноса служб на д ругой узел, так как они не смогут прод олжать работу на остановленном узле.

Ниже рассматривается поряд ок остановки кластера, что под разумевает завершение работы всех программ на узлах без уд аления конфигурации кластера. Узлы по-прежнему буд ут д оступны в окне сод ержимого кластера со статусом Not a cluster m em ber.

1. Отметьте все узлы в списке.

2. В верхнем меню выберите Leave Cluster. Появится сообщение об остановке узла.

3. Чтобы получить текущий статус, обновите страницу.

Поряд ок запуска кластера:

1. Отметьте все узлы в списке.

2. В верхнем меню выберите Join Cluster.

3. Чтобы получить текущий статус, обновите страницу.

Чтобы перезапустить работающий кластер, над о остановить и перезапустить узлы в его составе (см. выше).

Ниже привед ен поряд ок уд аления кластера. При этом его службы буд ут остановлены, конфигурация кластера уд алена со всех узлов, а узлы буд ут уд алены из списка элементов кластера. Повторные попытки д обавления этих узлов привед ут к генерации сообщения о том, что Red Hat Enterprise Linux 6 Ад министрирование кластера узел не принад лежит какому-либо кластеру.

–  –  –

Уд аление является необратимой операцией. Чтобы восстановить кластер, потребуется созд ать его заново.

1. Отметьте все узлы в списке.

2. В верхнем меню выберите Delete.

За уд аление кластера из интерфейса luci без остановки служб и изменения его состава отвечает параметр Remove на странице Manage Clusters (см. Разд ел 4.2, «Уд аление кластера из luci»).

4.5. Управление службами высокой готовности Помимо станд артных операций д обавления и изменения служб (см. Разд ел 3.10, «Д обавление службы в кластер») д оступны след ующие функции:

–  –  –

В главном меню страницы кластера выберите Service Groups д ля переход а к списку служб кластера.

Запуск служб. Установите флажок напротив служб, которые след ует запустить, и нажмите Start.

Перезапуск служб. Установите флажок напротив служб, которые след ует перезапустить, и нажмите Restart.

Отключение служб. Установите флажок напротив служб, которые след ует остановить, и нажмите Disable.

Уд аление служб. Установите флажок напротив остановленных служб, которые след ует уд алить, и нажмите Delete.

Перенос служб. Щелкните на имени службы, чтобы открыть страницу ее настройки. На этой странице указан узел, на котором в д анный момент выполняется эта служба.

Из списка Start on node... выберите узел, на который над о ее перенести, и нажмите Start. В верхней части экрана появится сообщение о запуске службы. Чтобы обновить статус вручную, обновите страницу.

–  –  –

Д ля управления отд ельной службой щелкните на ее имени на странице Services. В правом верхнем углу буд ут д оступны значки запуска, перезапуска, отключения и уд аления.

–  –  –

4.6. Создание резервной копии и восстановление конфигурации luci Ниже рассматривается поряд ок созд ания резервной копии базы д анных luci — /var/lib/luci/data/luci.db. База д анных сод ержит список пользователей, кластеров и их характеристрик, в то время как конфигурация кластера хранится в файле cluster.conf. По умолчанию резервная копия буд ет созд ана в том же каталоге, гд е расположен файл luci.db.

1. Выполните service luci stop.

2. Выполните service luci backup-db.

Д ополнительно команд е backup-db можно перед ать имя файла, в который буд ет сохранена копия базы д анных. Пример: service luci backup-db /root/luci.db.backup. Стоит отметить, что резервные копии, которые размещены за пред елами /var/lib/luci/data/, не буд ут показаны в вывод е команд ы list-backups.

3. Выполните service luci start.

Д алее привед ена послед овательность восстановления базы д анных luci.

1. Выполните service luci stop.

2. Выполните service luci list-backups, чтобы получить список резервных копий.

3. Выполните service luci restore-db /var/lib/luci/data/файл, заменив файл именем файла, из которого буд ет восстановлена база д анных.

Т ак, след ующая команд а восстановит д анные из файла lucibackup20110923062526.db:

service luci restore-db /var/lib/luci/data/luci-backup20110923062526.db

4. Выполните service luci start.

Если файл host.pem не найд ен на компьютере, гд е была созд ана резервная копия, д ля успешной авторизации на узлах кластера потребуется д обавить его вручную в окне luci.

Д алее рассматривается поряд ок восстановления базы д анных luci на д ругом компьютере. Д ля этого помимо копии базы д анных понад обится пред оставить SSL-сертификат д ля аутентификации luci на узлах ricci. В привед енном примере резервная копия была изначально созд ана на компьютере luci1, после чего она буд ет восстановлена на компьютере luci2.

1. След ующий набор команд созд аст резервную копию luci на luci1, затем скопирует ее и SSL-сертификат на luci2.

[root@luci1 ~]# service luci stop [root@luci1 ~]# service luci backup-db [root@luci1 ~]# service luci list-backups /var/lib/luci/data/luci-backup20120504134051.db [root@luci1 ~]# scp /var/lib/luci/certs/host.pem /var/lib/luci/data/lucibackup20120504134051.db root@luci2:

2. На компьютере luci2 д олжно быть установлено и запущено приложение luci.

3. Выполните след ующие команд ы д ля аутентификации и восстановления базы д анных на luci2.

[root@luci2 ~]# cp host.pem /var/lib/luci/certs/ [root@luci2 ~]# chown luci: /var/lib/luci/certs/host.pem [root@luci2 ~]# /etc/init.d/luci restore-db ~/lucibackup20120504134051.db [root@luci2 ~]# shred -u ~/host.pem ~/luci-backup20120504134051.db [root@luci2 ~]# service luci start Red Hat Enterprise Linux 6 Ад министрирование кластера

–  –  –

Глава 5. Настройка кластера с помощью ccs Начиная с Red Hat Enterprise Linux 6.

1 управление комплектом Red Hat High Availability может осуществляться с помощью утилиты ccs. Д оступные операции включают созд ание, просмотр и изменение файла cluster.conf локально или уд аленно, а также управление работой кластерных служб на од ном или од новременно на всех узлах.

В этой главе рассматриваются основные аспекты настройки комплекта Red Hat High Availability с помощью ccs. Глава 6, Управление кластером с помощью ccs сод ержит информацию об управлении работающим кластером.

Сод ержание главы:

Разд ел 5.1, «Обзор»

Разд ел 5.2, «Зад ачи конфигурации»

Разд ел 5.3, «Запуск ricci»

Разд ел 5.4, «Созд ание кластера»

Разд ел 5.5, «Настройка устройств изоляции»

Разд ел 5.7, «Настройка изоляции узлов»

Разд ел 5.8, «Настройка резервного д омена»

Разд ел 5.9, «Т ак, след ующая команд а покажет список служб на узле node1.

»

Разд ел 5.10, «Д обавление кластерной службы»

Разд ел 5.13, «Настройка кворумного д иска»

Разд ел 5.14, «Прочие характеристики кластера»

Разд ел 5.14, «Прочие характеристики кластера»

Разд ел 5.15, «Синхронизация файла конфигурации»

–  –  –

Д о ввод а Red Hat High Availability в эксплуатацию рекоменд уется проконсультироваться с пред ставителем Red Hat на пред мет соответствия конфигурации системы требованиям.

–  –  –

В этой главе упоминаются параметры из файла cluster.conf, полный список которых можно найти в /usr/share/cluster/cluster.rng и /usr/share/doc/cm anX.Y.ZZ/cluster_conf.htm l (например, /usr/share/doc/cm ancluster_conf.htm l).

5.1. Обзор В этой секции рассматриваются основные функции ccs.

Разд ел 5.1.

1, «Созд ание файла конфигурации локально»

Разд ел 5.1.

2, «Просмотр файла конфигурации»

Разд ел 5.1.

3, «Опред еление паролей ricci»

Разд ел 5.1.

4, «Изменение характеристик кластера»

5.1.1. Создание файла конфигурации локально Файл конфигурации кластера может быть созд ан уд аленно на узле в кластере или в локальной файловой системе с послед ующей перед ачей в кластер. Команд а ccs не требует наличия Red Hat Enterprise Linux 6 Ад министрирование кластера разрешений root.

Если файл созд ается уд аленно, необход имо указать имя узла с помощью параметра -h.

ccs -h узел [параметры] Если файл созд ается локально, ему может быть присвоено любое имя. Параметр -f позволяет его перед ать команд е ccs.

ccs -f файл [параметры] Параметр --setconf отвечает за перед ачу файла кластеру. Он буд ет размещен в /etc/cluster/cluster.conf.

ccs -h узел -f файл --setconf Разд ел 5.15, «Синхронизация файла конфигурации» сод ержит под робную информацию о -setconf.

5.1.2. Просмотр файла конфигурации

Д ля вывод а файла конфигурации на любой стад ии его созд ания выполните:

ccs -h узел --getconf Если файл был созд ан локально, вместо -h можно указать -f (см. Разд ел 5.1.1, «Созд ание файла конфигурации локально»).

5.1.3. Определение паролей ricci Д ля успешной перед ачи cluster.conf узлам кластера необход имо, чтобы на всех узлах была установлена программа ricci (см. Разд ел 2.13, «ricci»).

Пароль ricci можно перед ать с помощью параметра -p. Если пароль не пред оставить, появится запрос его ввод а в ход е выполнения ccs.

ccs -h узел -p пароль --sync --activate Если файл конфигурации перед ается всем узлам в кластере (параметр --sync), д ля д оступа буд ет использоваться указанный пароль. Если пароли отличаются, параметр --setconf в комбинации -p позволяет осуществлять перед ачу файла послед овательно.

5.1.4. Изменение характеристик кластера ccs позволяет изменить атрибуты компонентов кластера в файле конфигурации. Чтобы изменения вступили в силу, компонент д олжен быть уд ален и д обавлен заново.

Исключение составляет cm an: чтобы изменить его атрибуты, выполните ccs с параметром -setcm an. Значения перечисленных в строке атрибутов буд ут изменены, а остальным атрибутам буд ут присвоены станд артные значения (см. Разд ел 5.1.5, «Команд ы, переопред еляющие пред ыд ущие настройки»).

5.1.5. Команды, переопределяющие предыдущие настройки Некоторые аргументы ccs переопред еляют существующие настройки при изменении отд ельных значений. Т о есть при выполнении команд ы ccs с од ним из перечисленных ниже аргументов всем параметрам буд ут присвоены значения, используемые по умолчанию.

–  –  –

--setdlm

--setrm

--setcm an

--setm ulticast

--setaltm ulticast

--setfencedaem on

--setlogging

--setquorum d Т ак, например, чтобы сбросить параметры службы изоляции, выполните команд у # ccs -h hostname --setfencedaemon След ующая команд а присвоит post_fail_delay значение 5 и сбросит все остальные параметры:

# ccs -h hostname --setfencedaemon post_fail_delay=5 Если после этого выполнить след ующую команд у, параметру post_join_delay буд ет присвоено значение 10, а post_fail_delay буд ет снова сброшен.

# ccs -h hostname --setfencedaemon post_join_delay=10

Чтобы од новременно изменить значения post_fail_delay и post_join_delay, выполните:

# ccs -h hostname --setfencedaemon post_fail_delay=5 post_join_delay=10 Разд ел 5.5, «Настройка устройств изоляции» сод ержит под робную информацию о настройке устройств изоляции.

5.1.6. Проверка формата При созд ании файла конфигурации с помощью ccs его формат буд ет проверяться автоматически. В Red Hat Enterprise Linux 6.3 проверка осуществляется согласно схеме в /usr/share/cluster/cluster.rng на узле, который зад ан параметром -h, в то время как раньше использовалась встроенная схема ccs из /usr/share/ccs/cluster.rng. Если же команд а сод ержит параметр -f, по-прежнему буд ет использоваться /usr/share/ccs/cluster.rng.

5.2. Задачи конфигурации Ниже перечислены основные шаги по настройке Red Hat High Availability с помощью ccs.

1. ricci д олжен работать на всех узлах (см. Разд ел 5.3, «Запуск ricci»).

2. Разд ел 5.4, «Созд ание кластера».

3. Разд ел 5.5, «Настройка устройств изоляции».

4. Разд ел 5.7, «Настройка изоляции узлов».

5. Разд ел 5.8, «Настройка резервного д омена».

6. Разд ел 5.9, «Т ак, след ующая команд а покажет список служб на узле node1.».

7. Разд ел 5.10, «Д обавление кластерной службы».

8. Разд ел 5.13, «Настройка кворумного д иска».

9. Разд ел 5.14, «Прочие характеристики кластера».

10. Разд ел 5.15, «Синхронизация файла конфигурации».

Red Hat Enterprise Linux 6 Ад министрирование кластера

5.3. Запуск ricci Запуск ricci на кажд ом узле в кластере является обязательным условием д ля созд ания и распред еления файлов конфигурации. Д о запуска ricci необход имо под готовить систему:

1. Открыть IP-порты д ля работы ricci (см. Разд ел 2.3.1, «Д оступ к портам IP на узлах кластера»).

2. На всех узлах в кластере необход имо установить ricci и опред елить соотвествующий пароль д оступа (см. Разд ел 2.13, «ricci»).

После этого можно запустить ricci на кажд ом узле:

–  –  –

5.4. Создание кластера Д алее рассматривается поряд ок созд ания, изменения и уд аления базовой конфигурации кластера с помощью ccs. Описание изоляции узлов и служб высокой готовности привед ено в послед ующих секциях.

Сначала необход имо созд ать кластер, присвоить ему имя и д обавить в его состав узлы. Ниже привед ен поряд ок д ействий.

1. Созд ать файл конфигурации кластера на од ном из узлов при помощи ccs с параметром h (опред еляет узел, гд е буд ет созд ан файл) и createcluster (имя кластера):

–  –  –

Т ак, след ующая команд а созд аст файл конфигурации на node-01.exam ple.com в кластере m ycluster:

ccs -h node-01.example.com --createcluster mycluster Имя кластера не может сод ержать более 15 знаков.

Если cluster.conf уже существует, он буд ет перезаписан.

Чтобы созд ать файл в локальной файловой системе, вместо -h след ует указать -f (см.

Разд ел 5.1.

1, «Созд ание файла конфигурации локально»).

2. Чтобы д обавить узлы в файл конфигурации, след ует выполнить:

–  –  –

В след ующем примере в файл конфигурации на node-01.exam ple.com буд ут д обавлены узлы node-01.exam ple.com, node-02.exam ple.com и node-03.exam ple.com.

ccs -h node-01.example.com --addnode node-01.example.com ccs -h node-01.example.com --addnode node-02.example.com ccs -h node-01.example.com --addnode node-03.example.com

Команд а просмотра узлов в кластере:

–  –  –

Пример 5.1, «cluster.

conf с тремя узлами» д емонстрирует структуру кластера m ycluster, в состав которого вход ят узлы node-01.exam ple.com, nodeexam ple.com и node-03.exam ple.com.

<

–  –  –

Д ля д обавляемого узла можно опред елить количество голосов, учитываемых при опред елении кворума:

ccs -h хост --addnode узел --votes число ccs автоматически присвоит узлу уникальный целый ид ентификатор. Параметр --nodeide позволяет опред елить ид ентификатор вручную.

ccs -h хост --addnode хост --nodeid ID_узла

Уд аление узла из кластера осуществляется след ующим образом:

–  –  –



Pages:   || 2 | 3 |


Похожие работы:

«Открытые информационные и компьютерные интегрированные технологии № 55, 2012 УДК 621.793.7 Ю.А. Сысоев, И.С. Татаркина, А.А. Шматко Процессы микродугообразования в ионно-плазменных технологиях и их подавление Национальный аэрокосмический университе...»

«Коммутаторы SuperStack® 3 серии 4900 Краткое руководство Коммутатор Switch 4900 (3C17700) Коммутатор Switch 4900 (3C17702) Коммутатор Switch 4924 (3C17701) Коммутатор Switch 4950 (3C17706) http://www.3com.com/ Код документа. DUA1770-0AAA04 Дата издания: август 2002 г. 3Com Corporation 5400 Bay...»

«Milestone Systems XProtect® Smart Client 7.0 Руководство пользователя ® Руководство Milestone XProtect Smart Client пользователя 7.0 Содержание ПЕРВОЕ ИСПОЛЬЗОВАНИЕ УСТАНОВКА XPROTECT SMART CLIENT Установка с сервера наблюдения Установка с DVD-диска ПРОЦЕДУРА ВХОДА Окно входа Вход и выход Поиск и устранение неполадок СИСТ...»

«Приложение №5в к Порядку ТИПОВАЯ ФОРМА ГОСУДАРСТВЕННОГО КОНТРАКТА НА ПОСТАВКУ ТОВАРОВ (идентификационный код закупки ) г. Белград "_"_2016 г., именуем в дальнейшем "Заказчик", в лице _, действующего на основании _, с одной стороны, и, именуем в дальнейшем "Поставщик", в лице _, действующего на основании _, вместе...»

«Открытые информационные и компьютерные интегрированные технологии № 70, 2015 УДК 629.7.01 А.З. Двейрин, В.А. Костюк, А.И. Рабичев, А.В. Балун, Д.С. Конышев Систематизация и классификация типов грузовых люков самолетов транспортной категории по основным конструктивн...»

«СОДЕРЖАНИЕ Введение 4 Цель освоения дисциплины 1. 4 Компетенции обучающегося, формируемые в процессе 2. изучения дисциплины 4 Критерии оценки и шкала оценивания 3. 6 Текущий контроль 4. 8 Банк заданий для занятий 5. 8 Ситуационные задачи 6. 12 Темы рефератов 7....»

«Министерство образования и науки Российской Федерации Федеральное государственное бюджетное образовательное учреждение высшего профессионального образования "Томский государственный университет систем управления и радиоэлектроники" (ТУСУР) Кафедра автоматизации обработки информации (АОИ) УТВЕРЖДАЮ Заведующий кафедрой АОИ д-р техн. наук, проф...»

«HP ENVY 5640 e-All-in-One series Содержание 1 Приемы работы 2 Начало работы Компоненты принтера Функции панели управления и индикаторы состояния Основные сведения о бумаге Загрузка бумаги Загрузка оригинала Откройте программное обеспечение принтера HP (...»

«РАБОЧАЯ ПРОГРАММА ПРОФЕССИОНАЛЬНОГО МОДУЛЯ ПМ.05 ПМ.05 Организация процесса приготовления и приготовление сложных холодных и горячих десертов 2013 г. Рассмотрено на заседании МО общественного питания Протокол № 9 от 19.06.2013 г. Председатель МО Мефодьева О.А. Рабочая программа профессионального модуля разработ...»

«ISSN 1561 8889. Космічна наука і технологія. 2009. Т. 15. № 6. С. 73–83. УДК 621.315.3:533.9 Ю. А. Похил 1, В. В. Абраимов 1, Г. И. Сальтевский 1, И. П. Зарицкий 1, В. А. Лотоцкая 1, А. В. Кревсун 1, Н. Н. Агашкова 1, М. М. Пристюк 1, В. Г. Тихий 2, И. А. Гусарова 2, А. М. Потапов 2 Фізико технічний інститут низьких температур ім. Б. І. Вєркіна Національ...»

«ГОСУДАРСТВЕННЫЙ СТАНДАРТ СТБ 34.101.27-2011 РЕСПУБЛИКИ БЕЛАРУСЬ Информационные технологии и безопасность ТРЕБОВАНИЯ БЕЗОПАСНОСТИ К ПРОГРАММНЫМ СРЕДСТВАМ КРИПТОГРАФИЧЕСКОЙ ЗАЩИТЫ ИНФОРМАЦИИ Iнфармацыйныя тэхналогii i бяспека ПАТРАБАВАННI БЯСПЕКI ДА ПРАГРАМНЫХ СРОДКАЎ КРЫПТАГРАФIЧНАЙ АХОВЫ...»

«ДОГОВОР № _ на оказание транспортных услуг г. Оренбург "" _ 20_ года Общество с ограниченной ответственностью "Бен-Газ-Сакмара", в лице директора Фахрутдинова Дамира Ильдусовича, действующего на основании Устава, именуемое в дальнейшем "Исполнитель" с одной стороны, и_ в лице _, действующего на о...»

«Общество с ограниченной ответственностью "ТМХ-Сервис" филиал "Северо-Западный" "_" 20_г. Памятка локомотивной бригаде по обнаружению и устранению неисправностей на тепловозе 2ТЭ116у Согласовано: Директор филиала "Северо-Западный" ООО "ТМХ-Сервис" А.Е. Леонов Начальник Октябрьской Дирекции тяги А.В. Лебедев...»

«NETGEAR JDGN1000-100RUS Беспроводной Wi-Fi модем-маршрутизатор G54 Руководство пользователя 350 East Plumeria Drive San Jose, CA 95134 USA Сентябрь 2011 202-10969-01 v1.0 JDGN1000-100RUS – Руководство пользователя © 2011 NETGEAR, Inc. Все права за...»

«Ежедневные новости ООН • Для обновления сводки новостей, посетите Центр новостей ООН www.un.org/russian/news Ежедневные новости 21 АВГУСТА 2013 ГОДА, СРЕДА Заголовки дня, среда Глава ООН призвал покончить с крайней нищетой Комитет ООН по ликвидации всех форм расово...»

«МОДЕЛЮВАННЯ ПРОЦЕСІВ ПРОМИСЛОВОГО ОБЛАДНАННЯ _ УДК 629.1.032.1 Возгрин Ю.В., Герасименко В.И., Золотуха В.Н., Кузьминский В.А., Крот С.Г.МОЩНОСТНЫЕ ХАРАКТЕРИСТИКИ И ПОКАЗАТЕЛИ КАЧЕСТВА СИЛОВЫХ УСТАНОВОК БРОНЕТРАНСПОРТЕРОВ, РАЗРАБОТАННЫХ В КП ХКБМ Актуально...»

«PowerDrive Archer Улучшенное дренирование пласта благодаря использованию роторной управляемой системы с высокой интенсивностью набора кривизны ствола PowerDrive Archer ВЗД PowerDrive Archer RSS Уника...»

«Республиканский конкурс сочинений среди учащихся школ и средних учебных заведений на патриотическую тему, посвященную 71 годовщине Победы и 75-летию начала Великой Отечественной войны, 2016 г. Карагандинская область Аблаев Чингиз Агафонова Алёна Акишев Галымжан Александ...»

«1 БОРИС ЯКОВЛЕВИЧ НАДТОЧЕНКО · BORIS NADTOCHENKO старший научный сотрудник Института Дальнего Востока РАН Здравствуйте, Борис Яковлевич 1.Здравствуйте 2.Для начала расскажите о своей семье, откуда вы родом? 3.Моя семья была очень далека от Востока. Сознательные годы я жил в Киеве. 4. Среднюю шк...»

«Исследование радуги с помощью датчика Vernier и Lego – робота Авторы: Беньковский Андрей – 10 класс 16 лет Научные руководители проекта: Кибалина Наталья Петровна Белиовская Лидия Георгиевна, к.ф.-м.н. ГБОУ Лицей №1557 г. Москва Номинация, в которой заявляется проект Лучший проект или исследование с цифровой лабораторией A...»

«Инструкция пользователя прибором "РУБЕЖ-4А" Перечень сокращений АЛС – адресная линия связи; АМ – адресная метка; АМП – адресная метка пожарная; АПИ – адресный пожарный извещатель; АУ – адресное устройство; БД – база данных; ИПР–извещатель пожарный ручной; ПО – программ...»

«ПРАВИТЕЛЬСТВО РОССИЙСКОЙ ФЕДЕРАЦИИ РАСПОРЯЖЕНИЕ от 23 декабря 2014 г. № 2663-р МОСКВА О подписании Соглашения между Правительством Российской Федерации и Правительством Иорданского...»

«N E W YORK CITY DEPARTMENT EDUCATION OF Распоряжение директора Департамента Категория: УЧАЩИЕСЯ Номер A–830 Касательно: ПОДАЧА ВНУТРЕННИХ ЖАЛОБ НА НЕЗАКОННУЮ ДИСКРИМИНАЦИЮ И 1 Всего листов 1 Лист ПРЕСЛЕДОВАНИЕ От 13 ФЕВРАЛЯ 2004 Г. ОСНОВНЫЕ ИЗМЕНЕНИЯ Настоящее Распоряжение...»

«Инструкция для общественных наблюдателей по выполнению своих функций во время проведения ЕГЭ в ППЭ Настоящая инструкция разработана для аккредитованных общественных наблюдателей, которые планируют присутствовать во время проведения государственной итоговой аттестации (дал...»

«Правительство Российской Федерации Санкт-Петербургский государственный университет РАБОЧАЯ ПРОГРАММА УЧЕБНОЙ ДИСЦИПЛИНЫ ЖИВОПИСЬ (Painting) Язык (и) обучения русский Трудоемкость 52 зачетные единицы Регистрационный номер рабочей программы дисциплины: 033515 Санкт-Петербург Раздел...»

«Информация в естествознании и хронологии: способы сохранения и передачи. Через 10 лет маркиз де Бра купил эти часы у старьёвщика всего за пять су, но вскоре проклял тот день, когда польстился на эту диковинку: всего за два года он лишился не только жены, но и родителей, причём каждый раз часы останавливались ровно за неделю до смерти. Избавиться от н...»








 
2017 www.lib.knigi-x.ru - «Бесплатная электронная библиотека - электронные матриалы»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.