The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

Построение HA-кластера с использованием RHCS и GFS в RHEL 5

07.12.2008 23:00

Цель публикации - продемонстрировать создание тестовой конфигурации кластера высокой доступности с использованием Red Hat Cluster Suite и кластерной файловой системы Global File System.

При создании HA-кластера используем следующее ПО/технологии, все они являются полностью открытыми и для них доступен исходный код:

  • Red Hat Enterprise Linux Advanced Platform 5.1
  • Red Hat Cluster Suite (в том числе web-интерфейс Conga, qdiskd и clvmd);
  • Global File System;
  • udev.

    Вместо RHEL можно использовать CentOS, Scientific Linux и другие подобные.

    1. Главная ссылка к новости (http://markelov.blogspot.com/2...)
    Лицензия: CC-BY
    Тип: яз. русский / Практикум
    Ключевые слова: cluster, redhat, gfs
    При перепечатке указание ссылки на opennet.ru обязательно
    Обсуждение (14) Ajax | 1 уровень | Линейный | Раскрыть всё | RSS
  • 1.1, prapor (??), 00:12, 08/12/2008 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    С этим делом был занятный случай, когда производился fencing через iLO. Пропала электрика в одной из стоек (ноды в разных стойках с разными источниками питания). iLO стали недоступны - fenced несколько часов долбился пытаясь отсечь проблемную ноду, и пока ему это не удалось не давал произвести миграцию сервиса.
     
     
  • 2.2, Аноним (2), 00:37, 08/12/2008 [^] [^^] [^^^] [ответить]  
  • +/
    если нет возможности использовать бесперебойники(что за кластер без нормального электроснабжения) то перепишите скрипты под себя.
     
     
  • 3.8, prapor (??), 20:47, 08/12/2008 [^] [^^] [^^^] [ответить]  
  • +/
    >если нет возможности использовать бесперебойники(что за кластер без нормального электроснабжения) то перепишите
    >скрипты под себя.

    А кто сказал, что нет бесперибойников? Я говорю о том, что их не использовали а отсечку производили средствами iLO.

     
  • 3.9, PAL (?), 18:28, 09/12/2008 [^] [^^] [^^^] [ответить]  
  • +/
    >если нет возможности использовать бесперебойники(что за кластер без нормального электроснабжения) то перепишите
    >скрипты под себя.

    А Вы вообще-то хоть раз в жизни системы Enterprise level видели? Почему Вы думаете, что один ИБП питает один бокс?

    В данном датацентре 3 независимых источника питания. И стойка там с блейдами (это насчет блоков питания - там их количество несколько разнится с количеством боксов).

    В данном конкретном случае реализовать отсечку средствами ИБП было НЕВОЗМОЖНО. Физически.

     
  • 3.10, PAL (?), 18:30, 09/12/2008 [^] [^^] [^^^] [ответить]  
  • +/
    Забыл добавить. Почитать про некоторые реальные эксперименты с RHCS можно тут: http://admin.dp.ua/linux-unix/1.html
     
     
  • 4.12, Ai (?), 01:23, 10/12/2008 [^] [^^] [^^^] [ответить]  
  • +/
    >Забыл добавить. Почитать про некоторые реальные эксперименты с RHCS можно тут: http://admin.dp.ua/linux-unix/1.html

    Странно, что используя сервера HP, автор статьи приседал с RHCS вместо рекомендуемого (проприетарного) Service Guard, который можно скачать в вечном триале с itrc.hp.com (под RHEL точно). Штука дубовая и очень надежная, основная логика реализована на sh, при желании функционал допиливается руками.

     
     
  • 5.13, prapor (??), 13:44, 10/12/2008 [^] [^^] [^^^] [ответить]  
  • +/
    >Странно, что используя сервера HP, автор статьи приседал с RHCS вместо рекомендуемого (проприетарного) Service Guard, который можно скачать в вечном триале с itrc.hp.com (под RHEL точно). Штука дубовая и очень надежная, основная логика реализована на sh, при желании функционал допиливается руками.

    Кем рекомендуемого? Red Hat? Кроме того, для Unbreakable Linux (RHEL by Oracle) поддержка куплена, и туда же входит поддержка RHCS. А кто будет поддерживать trial-версию продукта?
    Головой подумать не?

     
  • 2.3, Andrey (??), 08:26, 08/12/2008 [^] [^^] [^^^] [ответить]  
  • +/
    Эм...в стойке один ввод питания?!
     
     
  • 3.4, klalafuda (?), 09:17, 08/12/2008 [^] [^^] [^^^] [ответить]  
  • +/

    представьте, что в один из узел *HA* кластера пальнули из базуки. так случилось. и там уже нет не то что питания - самого узла физически не существует. и если вдруг выпадание единичного узла ставит раком весь кластер, то о каком HA может идти речь :-?

    // wbr

     
  • 3.5, georg (??), 09:25, 08/12/2008 [^] [^^] [^^^] [ответить]  
  • +/
    Нет блин, в стойке 12 вводов по 2МВт... Поэтому туда даже электрик подойти боится, так что подвисший сервер перезагрузить некому...
     
  • 3.11, PAL (?), 18:32, 09/12/2008 [^] [^^] [^^^] [ответить]  
  • +/
    >Эм...в стойке один ввод питания?!

    Два. Всего в клетку заведено 3 независимых источника.

    Вот так случилось, что легло два из 3х.


     

  • 1.6, Vaso Petrovich (?), 11:47, 08/12/2008 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    >Point your web browser to https://server1.example.com:8084 to access luci

    это же явно перевод...

     
  • 1.7, Андрей Маркелов (?), 12:18, 08/12/2008 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    > это же явно перевод...

    :) Это явно вывод команды service luci restart

     
  • 1.14, Alexei (??), 18:31, 15/02/2009 [ответить] [﹢﹢﹢] [ · · · ]  
  • +/
    Здавствуйте. у меня такая проблема, я построил кластер на основе Apache с плавающим IP примерно так, как описано тут: http://www.ibm.com/developerworks/ru/library/l-linux-ha/index.html . если я использовал Debian, то возможно на него поставить кластерную файловую систему GFS? если возможно, то подскажите как (поподробней если можно), или направьте в нужном направлении, например на какойнить сайт! заранее спасибо!
     
     Добавить комментарий
    Имя:
    E-Mail:
    Текст:



    Спонсоры:
    MIRhosting
    Inferno Solutions
    Hosting by Ihor
    Хостинг:

    Закладки на сайте
    Проследить за страницей
    Created 1996-2019 by Maxim Chirkov
    Добавить, Поддержать, Вебмастеру