Компания IBM
Опубликован: 01.02.2008 | Доступ: свободный | Студентов: 618 / 23 | Оценка: 4.60 / 4.40 | Длительность: 43:55:00
Специальности: Разработчик аппаратуры
Теги:
Лекция 17: Сценарий аварийного восстановления в HAGEO
Определение устройств GeoMirror
- Создание всех устройств GeoMirror. Используя smitty hageo -> Configure
GeoMirror Devices (Конфигурирование устройств GeoMirror) -> Configure a GeoMirror
Device (Конфигурирование устройства GeoMirror) -> Add a GeoMirror Device (Добавление устройства GeoMirror). В примере 17.15 мы определяем устройство ulv11gmd,
соответствующее логическому тому ulv11, и определяем логический том ulv11_sm в
качестве statemap device.
* Network Name [boston_ether_01] * Network Type ether * Netmask [255.255.256.0] * Enable IP Address Takeover via IP Aliases fYes] IP Address Offset for Heartbeats over IP Aliases [172. 16,100.1] Press Enter AFTER making all desired Chan pes. [Entry Fields] Device Name [ulvllgimi] * Minor Device Number [10] * state Map Logical Volume [7dev/ruivii_sm] * State Map Size (Number of Entries) [1024] * State Map Region Size [32768] * Local Logical Volume [/dev/rulvll] * Device Mode async * Device Role primary High water Hark [] Sync Concurrency Rate [] * Remote Node, LV, and St a tenia p [frigg^/"dev/rulvll^/dev/rijlvll_STii] Remote Node, LV, and Statemap [] Remote Node, LV, and Statemap [] Remote Node, LV, and Statemap [] Remote Node, LV, and Statemap [] Remote Node, LV, and Statemap [] Remote Node, LV, And Statemap Local Peer and state Map Device [thorGVdev/>utvH_3m] Local Peer and State Map Device Local Peer and State Map Device [] local Peer and state Map Device [] Local Peer and State Map Device [] Local Peer and State Map Device []
Пример 17.15. Определение GMD через SMIT - Синхронизация определения GMD между узлами. Используем smitty hageo -> Configure GeoMirror Devices (Конфигурирование устройств GeoMirror) -> Synchronize GeoMirror Devices (Синхронизация устройств GeoMirror).
- Настройка свойств GeoMirror. Используем smitty hageo -> Configure GeoMirror
Devices (Конфигурирование устройств GeoMirror) -> Configure Global GeoMirror
Properties (Настройка глобальных свойств GeoMirror). Мы используем в своем сценарии следующие параметры (пример 17.16):
GMD(s) for HACMP to start in parallel [1] Network Protocol [TCP] Temporal Ordering Policy [SYSTEM] Autoset Network Parameters [Yes] TCP Send/Receive Space Size (KBytes) [512]
Пример 17.16. Глобальные свойства GeoMirror - Синхронизация свойств GeoMirror. Используем smitty hageo -> Configure GeoMirror Devices (Конфигурирование устройств GeoMirror) -> Synchronize Global GeoMirror Properties (Синхронизация глобальных свойств GeoMirror).
- Верификация определения GMD. Используем утилиты geo_verify или меню smitty hageo -> Verify HAGEO configuration (Верификация конфигурации HAGEO).
- На каждом узле кластера связываем файловые системы /app01 и /app02
с устройствами GeoMirror. Редактируем /etc/filesystems и заменяем логический
том файловой системы и логический том журнала устройствами GMD, как показано
в примере 17.17.
/appOl: dev = /dev/ulvll_gmd vfs = jfs2 log = /dev/ulvll_]og_gmd mount = false check = false account = false /app02: dev = /dev/ulv21_gmd vfs = jfs2 log = /dev/ul v21_log_gmd mount = false check = false options = rw account = false
Пример 17.17. Определение файловых систем приложения в GMD - Тестирование созданных GMD и файловых систем.
- Загрузка расширения ядра Geo на узлах:
/usr/sbin/hageo/krpc/cfgkrpc -ci
- Конфигурирование устройств GMD.
Активизируем группы томов на узлах и конфигурируем устройства GeoMirror с
использованием команды cfggmd:
/usr/lib/methods/cfggmd -l <gmd_name>
- Запуск устройств GMD. На каждом узле основного сайта перед запуском gmd следует пометить устройство GeoMirror как отключенное на удаленном узле, используя команду gmddown.
В нашем сценарии мы используем узел thor на основном сайте и помечаем устройство ulv11_gmd как отключенное на узле frigg.
На узле thor:Запускаем устройства GMD на локальном узле:
/usr/lib/methods/gmddown -l ulv11_gmd frigg
На удаленном узле помечаем соответствующий локальный узел thor как отключенный и запускаем устройства GeoMirror. В нашем примере ulv11_gmd активируется на узле thor. На узле frigg мы помечаем GMD как отключенное для узла odin и запускаем устройство:/usr/lib/methods/startgmd -l ulv11_gmd
/usr/lib/methods/gmddown -l ulv11_gmd odin /usr/lib/methods/startgmd -l ulv11_gmd
- Подключение файловых систем на основном узле.
- Для освобождения устройств GeoMirror необходимо отключить файловые системы, затем остановить устройства GeoMirror на основном и дополнительном сайтах,
используя на каждом сайте такую последовательность команд:
останавливаем устройство GeoMirror:отменяем конфигурирование GMD:
stopgmd -l <gmd_name>
выгружаем расширение ядра:ucfggmd -l <gmd_name>
/usr/sbin/hageo/krpc/cfgkrpc -u
- Загрузка расширения ядра Geo на узлах:
Примечание. Перед запуском устройства GeoMirror мы помечаем это устройство как
отключенное на узлах, на которых оно сконфигурировано, но не запущено. Это
позволяет предотвратить тайм-аут команды startgmd при связи с удаленным узлом.
Определение групп ресурсов HACMP/XD
Мы создали четыре группы ресурсов:
- Две реплицируемые группы ресурсов, содержащие группы томов, файловые системы и GMD, соответствующие приложениям APP01 и APP02, обычно работающие на сайте Boston, на узлах thor и odin соответственно. Они активизируются на обоих сайтах одновременно: основной экземпляр активируется на сайте Boston, а дополнительный экземпляр – на сайте Munchen.
- Две группы ресурсов, содержащие сервисные IP-метки (odin_svc и thor_svc), доступны только на сайте Boston.
Определение групп ресурсов
При конфигурировании групп ресурсов необходимо учитывать следующие аспекты:
- Нельзя смешивать ресурсы, зависящие от сайта, и межсайтовые ресурсы в одной группе ресурсов. В нашем сценарии сервисные IP-метки odin_svc и thor_svc доступны только на сайте Boston, поэтому их нельзя включить в одну группу ресурсов с устройствами GeoMirror.
- При определении зависимостей между двумя группами ресурсов убедитесь, что вы используете одинаковые узлы для обеих групп ресурсов. Зависимость группы ресурсов с использованием смешанных реплицируемых и нереплицируемых групп ресурсов не допускается.
- Можно учитывать порядок последовательного получения/освобождения для определения приоритета обработки групп ресурсов.
- Определение дополнительных ресурсов.
- Сервисные IP-адреса для локальной сети на сайте Boston: odin_svc, thor_svc.
- Конфигурирование серверов приложений: app01_srv, app02_srv.
- Определение групп ресурсов. Выполняется определение групп ресурсов,
привязанных к сайту. Пример 17.18 представляет конфигурацию группы ресурсов
thor_svc_rg, связанной с сервисным IP-адресом thor_svc на сайте Boston.
Change/Show All Resources and Attributes for a Resource Group Type or select values in entry fields. Press Enter AFTER making all desired changes. [Entry Fields] Resource Group Name thorsvcrg Inter-site Management Policy ignore Participating Nodes from Primary Site thor odin Participating Nodes from Secondary Site Startup Policy Online On Home Node Only Fallover Policy Fallover To Next Priority Node Fallback Policy Fallback To Higher Priority Node Fallback Timer Policy (empty is immediate) [] Service IP Labels/Addresses [thor_svc] Application Servers [] Volume Groups [] Use forced varyon of volume groups, if necessary false Automatically Import Volume Groups false Filesystems (empty is ALL for VGs specified) [] Filesystems Consistency Check fsck Filesystems Recovery Method sequential Filesystems mounted before IP configured false Filesystems/Directories to Export [] Filesystems/Directories to NFS Mount [] Network For NFS Mount [] Tape Resources [] Raw Disk PVIDs [] Fast Connect Services [] Communication Links [] Primary Workload Manager Class [] Secondary Workload Manager Class [] Miscel laneous Data [] GeoMirror Devices [] Fl=Help F2=Refresh F3=Cancel F4=List F5=Reset F6=Command F7=Edi t F8=Image F9=Shell FlOExit Enter=Do
Пример 17.18. Добавление сервисных IP-адресов в группу ресурсов.Change/Show All Resources and Attributes for a Resource Group Type or select values in entry fields. Press Enter AFTER making all desired changes. [Entry Fields] Resource Group Name app01_rg Inter-site Management Policy Prefer Primary Site Participating Nodes from Primary Site odin thor Participating Nodes from Secondary Site frigg Startup Policy Online On Home Node Only Fallover Policy Fallover To Next Priority Node In The List Fallback Policy Fallback To Higher Priority Node In The List Fallback Timer Policy (empty is immediate) [] Service IP Labels/Addresses [odin_svc] Application Servers [app01_srv] Volume Groups [vgOl] Use forced varyon of volume groups, if necessary false Automatically Import Volume Groups false Filesystems (empty is ALL for VGs specified) [/appOl] Filesystems Consistency Check fsck Filesystems Recovery Method sequential Filesystems mounted before IP configured false Filesystems/Directories to Export [] Filesystems/Directories to NFS Mount [] Network For NFS Mount [] Tape Resources [] Raw Disk PVIDs [] Fast Connect Services [] Communication Links [] Primary Workload Manager Class [] Secondary Workload Manager Class [] Miscellaneous Data [] GeoMirror Devices [ulvll_loggmd ulvllgmd] Fl=Help F2=Refresh F3=Cancel F4=List F5=Reset F6=Coimiard F7=Edit F8=Image
Пример 17.19. Определение групп ресурсов GeoMirror - Синхронизация кластера HACMP. Используем smitty hacmp -> Extended Configuration (Расширенное конфигурирование) -> Extended Verification and Synchronization (Расширенная верификация и синхронизация).
- Запуск служб кластера. Используем smitty clstart для запуска служб кластера на узле. После запуска служб кластера каждый узел на основном сайте Boston
получает группы ресурсов в соответствии с заданным приоритетом. Сервисные IPадреса thor_svc и odin_svc активируются на узлах thor и odin соответственно.
Основной экземпляр групп ресурсов app01_rg и app02_rg находится на сайте
Boston, где подключены файловые системы, а дополнительный экземпляр – на сайте
Munchen. Устройства GeoMirror активируются на обоих сайтах при запуске служб
кластера, что вызывает копирование данных, записываемых на основном сайте Boston,
через сети Geo_Primary на узел frigg сайта Munchen.
Пример 17.20 отображает состояние группы ресурсов, когда службы кластера запущены на всех узлах.
Group Name Type State Location thorsvcrg non-concurrent ONLINE thor OFFLINE odin appOlrg non-concurrent ONLINE thor OFFLINE odin ONLINE SEC frigg odin_svc_rg non-concurrent OFFLINE thor ONLINE odin app02_rg non-concurrent OFFLINE thor ONLINE odin ONLINE SEC frigg
Пример 17.20. Нормальное состояние группы ресурсов
- Определение дополнительных ресурсов.