View Mikhail Korotko's profile on LinkedIn
Follow me on Twitter

EnglishFrenchGermanItalianPortugueseSpanish

Последние комментарии

  • Avsporwabarma: гадания бесплатные по Библии
  • Илья: Здравствуйте, Михаил. Вы пишете «И еще на последок скажу что сама...
  • WilliamSeew: Thanks-a-mundo for the post. Fantastic.
  • Kaisar: приветствую Михаил, благодарю за полезную информацию. У меня возникла...

Архив

  • 27Фев

    Решил немного написать о работе и настройке MS Windows NLB в VMware vSphere. Особо в подробности работы NLB вдаваться не буду, так как про это замечательно написано на блоге у коллеги, только основные моменты и нюансы.

    У MS Windows NLB есть несколько режимов работы – это Unicast и Multicast (KB — Microsoft Network Load Balancing Multicast and Unicast operation modes).

    Continue reading »

    Метки: , , , , ,

  • 19Июл

    Следующая фича которую многие ждали это проброс USB устройств внутрь ВМ. Да она появилась в vSphere 4.1 и надо сказать работает. Честно когда я ждал 4.1 и видел заявленную поддержку USB, то думал, скорее всего, будет работать с кучей ограничений и не будет поддерживать живую миграцию, но когда все таки стал тестировать сей функционал, то был приятно удивлен. И так более подробно о USB поддержке ниже.
    Continue reading »

    Метки: , , ,

  • 19Июл

    И так VMware vSphere 4.1 благополучно скачана, установлена на тестовых хостах и начался практический разбор новых фич.

    Решил начать с iSCSI Hardware Offloads.

    Из релиза известно что

    vSphere 4.1 enables 10Gb iSCSI hardware offloads (Broadcom 57711) and 1Gb iSCSI hardware offloads (Broadcom 5709).

    Что это и с чем его едят? Собственно теперь сетевые карточки с функцией iSCSI Offload  или Accelerated iSCSI в терминологии HP и некоторых других производителей будут в ESX/ESXi работать как iSCSI HBA и в документации VMware дается обозначение таким адаптерам как Dependent Hardware iSCSI Adapters.
    Continue reading »

    Метки: , , , ,

  • 14Июн

    Как включить Jumbo Frames в ESX 4.

    Jumbo Frames – это сетевые кадры размером 9000+ байтов. Обычные кадры, использующиеся в сети имеют размером 1500 байт.  Jumbo Frames работает в сетях 1Гбит и выше. Для чего же нужны большие кадры? Собственно для того чтобы увеличить быстродействие сети при передачи большого числа данных и снизить накладные расходы. Рекомендуется включать Jumbo Frames в сетях, где наблюдается интенсивная пересылка больших объемов данных, например трафик iSCSI. Подробнее тут.

    ESX/ESXi 4 имеет поддержку Jumbo Frames и ниже я расскажу как ее включить на примере хоста с ESX 4.
    Continue reading »

    Метки: , , ,

  • 11Июн

    Хочу рассказать, как настроить ESX/ESXi на работу с Link Aggregation (далее LA). Мне очень часто задают данный вопрос. Вкратце о LA – это технология, которая позволяет объединить несколько физических каналов в один логический, благодаря чему получается увеличение пропускной способности канала (каналы суммируются)  и повышается надежность (failover).  Более подробно можно прочить тут и тут.

    Continue reading »

    Метки: , , ,

  • 26Май

    На днях один коллега поделился одной особенностью, что при копирование тонких дисков, они копируются как толстые.
    Я решил проверить. Создал пустую ВМ с тонким диском размером в 200ГБ. Далее решил скопировать через vCenter, через Browse Datastore, папку с этой ВМ себе на рабочую станцию. Какое мое было удивление, когда файл flat.vmdk стал копироваться довольно долго. Как будто его размер был 200ГБ. Мой пытливый ум это не устроило, и я решил через Veeam FastSCP проделать тоже и самое удивительное было то что опять файл flat.vmdk копировался как толстый диск размером в 200Гб, хотя на датасторе он был пустой. Мне подумалось что возможно при копирование с vmfs на другую файловую систему происходит конвертация диска из тонкого в толстый. Далее решил попробовать скопировать папку с ВМ из родного датасторе в соседний. В результате получил аналогичную ситуацию. Диск ВМ копировался как толстый. Далее решил попробовать клонировать ВМ. При клонирование диск остался тонким и само клонирование прошло очень быстро, как и следовало для пустой ВМ. И тут я решил идти писать в сапорт Вари для более точного разрешения данной ситуации.

    Цитирую что ответили.

    — As you must be aware, thin provisioning is only available for in ESX 4.0. The behavior that you have mentioned in the case description is by design. Whenever a think provisioned disk is moved or copied to a different data store it will be converted to a thick disk. When you are copying it to a workstation and if we assume that it is running Windows (NTFS file system) it is automatically converted to a thick disk.

    — However we can clone a thin provisioned vmdk to anther data store keeping it in the thin format.

    Как я и думал. Прямого копирование между датасторами или же на другую файловую систему тонких дисков нет. Т.е оно есть, но при копирование он автоматом превращается в толстый. Хотите перенести ВМ с тонким диском на другую датасторе – мигрируйте (Migrate) или клонируйте (Clone) ее.

    Метки: , , ,

  • 17Май

    Еще один небольшой гайд, теперь уже о том, как обновить ESX/ESXi 4 хосты.

    Существует несколько способов, с помощью которых можно обновить хосты:

    1. vSphere Host Update Utility;
    2. Утилита esxupdate;
    3. vSphere CLI vihostupdate;
    4. VMware Update Manager;

    Continue reading »

    Метки: , ,

  • 13Май

    Недавно я писал о политиках multipathing касательно LUN  в ESX/ESXi 4 и в заключение обещал описать настройку Round Robin. Держу обещание, статья ниже.

    В данном примере я буду использовать хост на ESX 4, два физических сетевых адаптера выделенных для работы под трафик iSCSI и СХД HP MSA 2324i с двумя контролерами (что то по серьезней пока нет под рукой для свободного разделывания), работающими в режиме Active-Active ULP.  Конфигурация из этого примера подойдет для настройки ESX/ESXi c другими типами СХД. Тут я затрону только настройку самого ESX, по умолчанию мы уже имеем несколько LUN на СХД(в моем примере 2 LUN).
    Continue reading »

    Метки: , , ,

  • 20Апр

    Немного о multipathing (не буду переводить термин) в работе с LUN’ами.

    Для чего нужен multipathing? Основное назначение это поддержка связи между хостом и хранилищем данных по нескольким физическим путям для обеспечения отказоустойчивости, а также для распределения нагрузки. Пример есть внешнее хранилище iSCSI и к нему подключен хост. Если использовать одно физ. подключение (1 порт), то при падение свитча/порта и т.п. мы потеряем связь с хранилищем. Рассказывать не буду чем это может обернуться для среды и для админа. Если же используется для подключения несколько портов, то в случае падения одного из портов технология мультипатчинга найдет другой доступный путь к хранилищу.
    Continue reading »

    Метки: , ,

  • 12Апр

    На днях столкнулся с тем, что не удаляются снапшоты с одной ВМ из за блокировки файлов на датасторе. А после получения ошибки из snapshot manager исчезли все точки откатов.

    Предыстория.

    За последние пару дней на ВМ тестировался софт и различная конфигурация, поэтому было сделано несколько снапшотов, и несколько бекапов. В общей сложности 10 снапшотов размером в 60-65Гб.
    Continue reading »

    Метки:

« Предыдущая страница   

Свежие комментарии

  • гадания ...
  • Здравствуйте, Михаил. Вы пишете "И еще на последок скажу что...
  • Thanks-a-mundo for the post. Fantastic....
  • приветствую Михаил, благодарю за полезную информацию. У мен...
  • http://kb.vmware.com/selfservice/microsites/search.do?langua...