Всех приветствую.Около двух лет использую виртуальный роутер на базе FreeBSD (R), все сервисы (S) тоже ввиде виртуалок на том же хосте (proxmox), что и роутер. Клиентов в сети около 400. На eth1, подключенный мостом, к R приходит тэгированный трафик с коммутатора, сервисные виртуалки поключены также через мосты к ethN которые уходят на коммутатор. Все работает, все устраивает.
Приобрели новый сервер, предстоит переезд. Я задумался, раз R и S на одном хосте, то зачем организовывать их взаимодействие через дополнительную коммутацию, т.е:
1. с коммутатора приходит запрос к S c клиентского vlan на R
2. запрос маршрутизируется и уходит на коммутатор
3. с коммутатора приходит на S
(надеюсь понятно объяснил), зачем два последних шага, т.е. R в виртуализации, а организованно как буд-то он на отдельном хосте.Думаю как сделать:
- объединить все доступные физ.интерфейсы в bond и подключить к R, S подключать к R через пустые мосты.
- объединить все доступные физ.интерфейсы в bond и подключить к R, S подключать к R через openv switch.
- оставить все как естьОтсюда несколько вопросов:
1. Правильно ли подключать vlan trunk через мост напрямую к R или разрулить все vlan на мосты и подключить к R ?
2. На сколько openv switch производительней и увеличит ли он нагрузку на CPU (насчет производительности не знаю, но нагрузку увеличит, т.к., грубо говоря, еще одна прослойка между гипервизором и linux bridge) ?Всем спасибо.
Как показала моя практика, виланы лучше снимать на хост-системе и клиентам отдавать нетегированный трафик
switch trunk -> eth.vlanX -> bridgeX -> client
> Как показала моя практика, виланы лучше снимать на хост-системе и клиентам отдавать
> нетегированный трафик
> switch trunk -> eth.vlanX -> bridgeX -> clientбыли проблемы или низкая производительность?
> были проблемы или низкая производительность?При конструкции switch trunk -> ethX -> bridgeX -> client.vlanX возникали лаги при работе с клиентом.
>> были проблемы или низкая производительность?
> При конструкции switch trunk -> ethX -> bridgeX -> client.vlanX возникали лаги
> при работе с клиентом.# sysctl -a |grep bridge
net.bridge.bridge-nf-call-arptables = 0
net.bridge.bridge-nf-call-ip6tables = 0
net.bridge.bridge-nf-call-iptables = 0
net.bridge.bridge-nf-filter-pppoe-tagged = 0
net.bridge.bridge-nf-filter-vlan-tagged = 0
net.bridge.bridge-nf-pass-vlan-input-dev = 0?
> ?Да.