Nexus 9000, SDN и все-все-все

Начнем издаля 

С развития сетей в DC. Все мы знаем, что для быстрой передачи пакетов и сегментации сети лучше трафик передавать по L2. Однако черевато это петлями/блокировкамиSTP (не известно что хуже)), низкой утилизацией при балансировке, сложностью поддержания прозрачного L2 сегмента и большим количеством ручных настроек (раскидайте ка 400 вланов по сети в 100 свичей).
Что делать? Объединяем два шасси в один логический портчанел - получаем VPC
Пакеты передаем по L2, а таблицы форвардинга по L3 через IS-IS - получаем FabricPath
Соединяем L2 сегменты через L3 сеть - OTV

VXLAN

Однако ученые не довольствуются частным. Давайте брать L2 пакет и передавать его внутри UDP. А в качестве маркера, понятного человеку, повесим еще одну цифру - VXLAN Network Identifier. Тогда можно получить связность L2 сетей поверх существующей L3 и в тоже время логическую сегментацию на уровне L2. Для пущей связности можно транслировать VXLAN в мультикаст группы и пусть сами ищут друг друга. А для сегментации - поставить между сегментами - группами устройств VXLAN роутеры и там же прикрутить межсетевые экраны с политиками безопасности. Идея VXLAN описана тут (по русски, там же термины, типа VTEP).

VMWare NSX

Теперь представим VMware среду с виртуальными машинами. Задумываем группы машин, даем этим группам номера VXLAN. Определяем последовательность, в которой группы соединяются друг с другом и политики безопасности на стыках. А теперь давайте все это делать в графической оболочке. Вот и вышел NSX - еще один слой абстракции, реализующий VXLAN подход в рамках виртуальной среды)))

Nexus 9K and ACI

Чем плох NSX? Хоть он называет себя SDN, все отлично, пока трафик не ходит за пределы корзины серверов. Сеть вовне неизвестна, заниматься ей нужно отдельно (а так же мониторить, админить и проч). Второй минус - сетевая часть полностью софтверна, всякий новый функциональный блок (VXLAN роутер, файрвол, балансировщик) - это еще одна VM. Да она лежит рядом с пользовательскими VM, которые и обслуживает. Тем не менее специальное железо всегда быстрее софта. Как все эти "сетевые" VM балансировать, мониторить и траблшутить на десятках корзин уже не очевидно. И тут из-за колонны выходит весь белый наш герой и говорит: "здравствуй мама")))


Реализуем тот же подход на Nexus 9000. Они отличны сами по себе как обычные свичи: 6 портов 40G и 48x1/10G в 2U по цене GPL 20k$. Но нам мало - собираем двухуровневую структуру SPINE-LEAF. Все Leaf включаем во все Spine (это бекбон сети). Для управления ставим сервер с ACI GUI, все настройки функционала делаются на нем. Получаем SDN!
Клиентский гипервизор подключаем по LLDP он потом получит от нашей сети хост группы для своего виртуального коммутатора, в которые мы поместим нужные VM. Для повышения производительности нужно добавить в бекбон еще один spine и добавить к нему линки. За счет UDP и шифта дисперсия меньше 1%. Нужно подключить тупое железо - определяем порт как VTEP гейт. За счет специальных микросхем от Brocade трафик капсулируется в VXLAN на скорости провода. Я кончил)

И ссылочки:
Хороший обзор NSX и ACI от Джета
Блог про ACI  Адама из Cisco с объяснениями и настройками
Архитектура Nexus 9000



Комментарии

Популярные сообщения из этого блога

Cisco Policing and Shaping.

EDU-JUN-JMV lab on vMX. Part1.

Опять GRE. Мультикаст, MTU и мать всех статей.