The OpenNET Project / Index page

[ новости /+++ | форум | wiki | теги | ]

форумы  помощь  поиск  регистрация  майллист  вход/выход  слежка  RSS
"Объединение интерфейсов (bonding) Debian"
Вариант для распечатки  
Пред. тема | След. тема 
Форум Открытые системы на сервере (Сеть. проблемы, диагностика / Linux)
Изначальное сообщение [ Отслеживать ]

"Объединение интерфейсов (bonding) Debian"  +/
Сообщение от tcts (ok) on 09-Июл-10, 10:16 
Упорно не хочет работать режим mode=4. Сам bonding поднимается и работает.
Коммутатор настроен.

-----
# cat /etc/modprobe.d/arch-aliases:
alias bond0 bonding
options bonding mode=4 miimon=100 arp_interval=100 downdelay=200 updelay=200

# ifconfig
bond0     Link encap:Ethernet  HWaddr 00:30:48:76:2b:26
          inet addr:192.168.0.17  Bcast:192.168.0.255  Mask:255.255.255.0
          inet6 addr: fe80::230:48ff:fe76:2b26/64 Scope:Link
          UP BROADCAST RUNNING MASTER MULTICAST  MTU:1500  Metric:1
          RX packets:9578437 errors:0 dropped:0 overruns:0 frame:0
          TX packets:6413664 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:14171208071 (13.1 GiB)  TX bytes:894287560 (852.8 MiB)

eth0      Link encap:Ethernet  HWaddr 00:30:48:76:2b:26
          inet6 addr: fe80::230:48ff:fe76:2b26/64 Scope:Link
          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1
          RX packets:4847060 errors:0 dropped:0 overruns:0 frame:0
          TX packets:3206827 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:7171212341 (6.6 GiB)  TX bytes:447333890 (426.6 MiB)
          Interrupt:169

eth1      Link encap:Ethernet  HWaddr 00:30:48:76:2b:26
          inet6 addr: fe80::230:48ff:fe76:2b26/64 Scope:Link
          UP BROADCAST RUNNING SLAVE MULTICAST  MTU:1500  Metric:1
          RX packets:4731377 errors:0 dropped:0 overruns:0 frame:0
          TX packets:3206837 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:1000
          RX bytes:6999995730 (6.5 GiB)  TX bytes:446953670 (426.2 MiB)
          Interrupt:177

lo        Link encap:Local Loopback
          inet addr:127.0.0.1  Mask:255.0.0.0
          inet6 addr: ::1/128 Scope:Host
          UP LOOPBACK RUNNING  MTU:16436  Metric:1
          RX packets:66855 errors:0 dropped:0 overruns:0 frame:0
          TX packets:66855 errors:0 dropped:0 overruns:0 carrier:0
          collisions:0 txqueuelen:0
          RX bytes:5944281 (5.6 MiB)  TX bytes:5944281 (5.6 MiB)

# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.0.3-vz (March 23, 2006)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 0
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth0
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:30:48:76:2b:26

Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:30:48:76:2b:27
-----

Рядом на другом сервере точно такая же система с теми же настройками, настраивалась точно так же

-----
# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.2.3 (December 6, 2007)

Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 200

802.3ad info
LACP rate: slow
Active Aggregator Info:
        Aggregator ID: 2
        Number of ports: 2
        Actor Key: 17
        Partner Key: 13
        Partner Mac Address: 00:14:a8:82:87:80

Slave Interface: eth0
MII Status: up
Link Failure Count: 1
Permanent HW addr: 00:30:48:59:e9:c6
Aggregator ID: 2

Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:30:48:59:e9:c7
Aggregator ID: 2
-----

В разных источниках прописаны разные места для задания режима. На работающем сервере у меня только в одном месте (arch-aliases sumlink на i386)

-----
# grep -r mode=4 /etc/
/etc/modprobe.d/arch-aliases:options bonding mode=4 miimon=100 arp_interval=100 downdelay=200 updelay=200
/etc/modprobe.d/arch/i386:options bonding mode=4 miimon=100 arp_interval=100 downdelay=200 updelay=200
-----

Модуль bonding уже был (не устанавливался). Различия в версии драйверов хотя перед конфигурацией интерфейсов - #aptitude update && aptitude install ifenslave2.6

При настройке первого сервера все было так же, несмотря на указания режима mode=4 устанавливался mode=1. После перезагрузки все произошло верно. На втором сервере такой фокус не прошел, да и не дело грузить "наживую" сервера, упрямую  железку нужно ломать конфигурацией и командами.

Ответить | Правка | Cообщить модератору

Оглавление

Сообщения по теме [Сортировка по времени | RSS]


1. "Объединение интерфейсов (bonding) Debian"  +/
Сообщение от zd3n (ok) on 09-Июл-10, 12:10 
1. Эти сервера подключены к одним и тем же коммутаторам?
Для mode=4 (802.3ad) должен быть поднят этот протокол на самом коммутаторе.
Если один сервер подключен к одному коммутатору, где этот протокол поднят, а второй - к другому, где нет этого протокола, то естественно на 2-м сервере mode=4 (802.3ad) не поднимется.

2. Как смотрю, версии Ethernet Channel Bonding Driver на серверах разные. Вполне возможно что в более старой версии режим mode=4 (802.3ad) не реализован. Надо это проверить в доке к драйверу.

Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

2. "Объединение интерфейсов (bonding) Debian"  +/
Сообщение от tcts (ok) on 10-Июл-10, 21:19 
>1. Эти сервера подключены к одним и тем же коммутаторам?
>Для mode=4 (802.3ad) должен быть поднят этот протокол на самом коммутаторе.
>Если один сервер подключен к одному коммутатору, где этот протокол поднят, а
>второй - к другому, где нет этого протокола, то естественно на
>2-м сервере mode=4 (802.3ad) не поднимется.

Две Cisco3750 в стеке, сервера двумя сетевыми картами смотрят каждая в свою Cisco. Со стороны коммутаторов etherchannel поднят.

1. Если представить ситуацию что компьютер с  bonding вообще никуда не включен, режим определяет конфигурация или это двустороннее решение группы взаимодействующих сетевых интрефейсов (сторона коммутатора и стороны сервера)? Какой режим будет выбран если сервер с bonding включить в простой неуправляемый свич, одном каналом? К сожалению не могу проводить опыты, сервер под нагрузкой. Условие - без потери связи.

2. Необходимо ли пересобирать ядро для изменения версии Ethernet Drivers?

Ответить | Правка | ^ к родителю #1 | Наверх | Cообщить модератору

3. "Объединение интерфейсов (bonding) Debian"  +/
Сообщение от zd3n (ok) on 12-Июл-10, 07:45 
>Две Cisco3750 в стеке, сервера двумя сетевыми картами смотрят каждая в свою
>Cisco. Со стороны коммутаторов etherchannel поднят.
>
>1. Если представить ситуацию что компьютер с  bonding вообще никуда не
>включен, режим определяет конфигурация или это двустороннее решение группы взаимодействующих сетевых
>интрефейсов (сторона коммутатора и стороны сервера)? Какой режим будет выбран если
>сервер с bonding включить в простой неуправляемый свич, одном каналом? К
>сожалению не могу проводить опыты, сервер под нагрузкой. Условие - без
>потери связи.
>

У меня, при включении сервера с bonding(mode=4 (802.3ad)) в свитч без etherchannel, просто нет связи с сетью. Т.е. сам режим автоматом не меняется.

>2. Необходимо ли пересобирать ядро для изменения версии Ethernet Drivers?

Ядро пересобирать не нужно, там просто новый модуль ядра скомпилируется.

Ответить | Правка | ^ к родителю #2 | Наверх | Cообщить модератору

4. "Объединение интерфейсов (bonding) Debian"  +/
Сообщение от tcts (ok) on 12-Июл-10, 11:14 
>У меня, при включении сервера с bonding(mode=4 (802.3ad)) в свитч без etherchannel,
>просто нет связи с сетью. Т.е. сам режим автоматом не меняется.

Cвязи нет, обьяснимо, хотя у меня включается mode=0, и связь идет поочередно пакет в один интерфейс, пакет в другой, связь не теряется. А что у вас на сервере в этом случае показывает #cat /proc/net/bonding/bond0?
Пусть даже в отсутствии связи?

Мне хочется понять: режим устанавливается конфигурацией жестко или в случае неработоспособности нужного режима, например, отсутствии правильного оборудования со стороны коммутатора, включается "по умолчанию" (в моем случае robin-roun).

Ответить | Правка | ^ к родителю #3 | Наверх | Cообщить модератору

5. "Объединение интерфейсов (bonding) Debian"  +/
Сообщение от surgutor (ok) on 19-Ноя-10, 13:22 
Ку.
У тебя получилось завести mode 4?
Потому что у меня таже самая ошибка, не получаестя достичь увеличение пропускной способности при агрегации.
Ответить | Правка | ^ к родителю #0 | Наверх | Cообщить модератору

6. "Объединение интерфейсов (bonding) Debian"  +/
Сообщение от swichmen29 (ok) on 24-Ноя-10, 11:48 
> Ку.
> У тебя получилось завести mode 4?
> Потому что у меня таже самая ошибка, не получаестя достичь увеличение пропускной
> способности при агрегации.

Если решили данную проблему отпишитесь как ?

Ответить | Правка | ^ к родителю #5 | Наверх | Cообщить модератору

7. "Объединение интерфейсов (bonding) Debian"  +/
Сообщение от surgutor (ok) on 24-Ноя-10, 13:36 
>> Ку.
>> У тебя получилось завести mode 4?
>> Потому что у меня таже самая ошибка, не получаестя достичь увеличение пропускной
>> способности при агрегации.
> Если решили данную проблему отпишитесь как ?

Проблему решил данную:) Правда как это получилось, не совсем понял:)
Я использую Debian Lenny, в нем агрегация делается немного иначе.
Все информация, касаемо бондинга пишется в /etc/network/interfaces.
Вот тут я нашел эту информацию.

http://wiki.debian.org/Bonding

И использовал mode = 4. Однако обратил внимание, что не получилось достичь скорость 2х100, максимум 160 и то не всегда. Зависит от того, откуда и как слать запросы. Я использовал iperf для измерения скорости.
Да и, к тому же, возможно еще моя циска не очень верно настроена.
Если еще вопросы: три 0 пять 7 ноль 4 ноль 7 один.
Ответ - Linux

Ответить | Правка | ^ к родителю #6 | Наверх | Cообщить модератору

Архив | Удалить

Рекомендовать для помещения в FAQ | Индекс форумов | Темы | Пред. тема | След. тема




Спонсоры:
Inferno Solutions
Hosting by Hoster.ru
Хостинг:

Закладки на сайте
Проследить за страницей
Created 1996-2021 by Maxim Chirkov
Добавить, Поддержать, Вебмастеру