Как включить Jumbo Frames в ESX 4.
Jumbo Frames – это сетевые кадры размером 9000+ байтов. Обычные кадры, использующиеся в сети имеют размером 1500 байт. Jumbo Frames работает в сетях 1Гбит и выше. Для чего же нужны большие кадры? Собственно для того чтобы увеличить быстродействие сети при передачи большого числа данных и снизить накладные расходы. Рекомендуется включать Jumbo Frames в сетях, где наблюдается интенсивная пересылка больших объемов данных, например трафик iSCSI. Подробнее тут.
ESX/ESXi 4 имеет поддержку Jumbo Frames и ниже я расскажу как ее включить на примере хоста с ESX 4.
По умолчанию у нас есть коммутатор, который поддерживает Jumbo Frames и на нем уже включена поддержка больших кадров для нужных портов. Также есть хост, на котором уже есть отдельный vSwitch и два порта VMkernel использующийся для трафика iSCSI. Вот как раз на нем я включу поддержку Jumbo Frames.
Все операции по включению Jumbo Frames производятся из консоли. Включать поддержку Jumbo Frames я буду на vSwitch2.
Первым делом идем в консоль и смотрим командой esxcfg-vswitch –l какие у нас есть виртуальные свитчи и какой MTU выставлен. По умолчанию MTU = 1500.
Далее выполняю команду esxcfg-vswitch -m 9000 vSwitch2, тем самым включая поддержку больших кадров на виртуальном свитче vSwitch2.
Теперь остается включить Jumbo Frames для портов VMkernel, которым это необходимо. В моем примере они созданы, так что их придется пересоздавать.
В начале выполняем команду esxcfg-vmknic –d <port_group_name>, этой командой мы удалим VMkernel NIC в порт группе, в моем примере esxcfg-vmknic –d iSCSI1.
Затем выполняем команду esxcfg-vmknic -a -i <IP> -n <network_mask> -m 9000 <port_group_name>, этим действием мы заново создадим порт VMkernel с нужным IP, маской и размером кадра в 9000 байт, в моем примере esxcfg-vmknic –a –i 192.168.10.5 255.255.255.0 –m 9000 iSCSI1.
Тоже самое я проделаю и со вторым портом VMkernel.
esxcfg-vmknic –d iSCSI2
esxcfg-vmknic –a –i 192.168.10.6 255.255.255.0 –m 9000 iSCSI2
Теперь можно посмотреть, что получилось командой esxcfg-vmknic –l.
Все с конфигурацией.
Касетельно ESXi.
Тут есть несколько способов. Через unsupported mode или vSphere CLI или vMA.
Это все хорошо, но есть нюанс:
для ESXi придется воспользоваться vSphere CLI, а с их помощью нельзя создать интерфейс vmkernel на распределенном виртуальном коммутаторе (можно ли это сделать локальной командной строкой на ESX я не помню).
Таким образом, в случае использования распределенных коммутаторов VMware:
1) MTU для них увеличивается из GUI
2) создать vmk придется сначала на любом стандартном коммутаторе, а затем созданный с нужным MTU интерфейс мигрировать на распределенный.
Спасибо Михаил,
Да на ESXi придется воспользоваться vSphere CLI, либо vMA, либо unsupported mode как то я забыл упомянуть, тем более в название звучит и про ESXi. Подправлю.
Насчет dvSwitch с Вами согласен, я просто тут их не рассматривал.
На счет настройки именно ESXi.
Я не проверял, но почти уверен что можно сделать HostProfile который решит задачу конкурирования сети для ESXi.
ps
постараюсь проверить сегодня.
Проверил вариант с профайлами для хостов.
К сожалению профайлы не учитывают MTU параметры, а было бы не плохо. Нужно «попросить» сделать в будущих версиях 🙂
Собственно я это и подозревал, что MTU могут и не учитываться. Кстати спасибо за проверку, учту на будущее для себя.