>Кластерных ФС мзвестных негусто - навскидку Lustre, Google FS (+Hadoop), что-то было
>у IBM.
>Отличительная особенность - все участники ФС унифицированы и являются и серверами и
>клиентами ФС (это имеенно особенности реализации, конечно же можно и настроить
>для работы как "несколько серверов - много клиентов", но преимуществ в
>этом случае не получите, скорее наоборот)
помоему ты ошибаешся...>Обычный принцип действия - работа на уровне блоков: разбитый на блоки файл
>"размазывается" по нескольким серверам, при его чтении клиент сам собирает блоки
>в файл.
Это Google FS & RedHat GFS.. в люстре оперируют понятием объект.
>ФС этого класса очень разные. Lustre заточнена под hiperf вычисления с низкой
>латентностью, посему пользуют что-нить типа InfiniBand и нестандартные MPI. Люстра замонтированая
>представляет из себя слегка урезaную ext3.
ext3 был только для 2.4 ядер, для 2.6 используется ldiskfs которая значительно ближе к ext4.
>Также есть shared storage FS - эти нужны при работе нескольких (многих)
>серверов с внешними дисковыми массивами. Основная задача - обеспечить быструю и
>правильную блокировку совместного доступа (via SAN, iSCSI, SCSI). Без них фактически
>каждый сервер должен работать со своим личным выделенным на массиве разделом.
>Из известных - GFS от RedHat, Oracle Cluster File System, PolyServe
>и Veritas CFS.
RedHat GFS вобще странная FS - раздает raw девайс и пытается рулить блокировками на уровне блоков, без учета логической организации.