Виртуализация процессора для чего нужна

Виртуализация серверов

Виртуализация — это процесс создания программного (виртуального) представления чего-либо. Когда этим чем-либо выступают серверы (физическое оборудование), мы говорим, что это «виртуализация серверов». Это действенный способ повысить эффективность работы и отказоустойчивость IT-инфраструктуры, а также сократить расходы на ее содержание и модернизацию.

Суть серверной виртуализации

Серверная виртуализация — это архитектура ПО, которое отвечает за то, чтобы несколько операционных систем работали на базе одного физического сервера. При этом ПО каждого сервера самодостаточно и отделено от любых физических устройств. Это же ПО воспринимает доступные ресурсы как ресурсы одного физического сервера, хотя по факту получает небольшой пул ресурсов. Виртуальные серверы работают как имитация физического вычислительного оборудования.

В виртуальном сервере эмулируется аппаратное обеспечение: процессоры, дисковые накопители, оперативная память. Операционные системы, установленные на каждый виртуальный сервер, не «видят» друг друга и при этом функционируют так, как если бы они были установлены на обычном компьютере. На одном «железе» можно запускать несколько ОС и в разных пропорциях распределять между ними физические ресурсы.

С виртуализацией неразрывно связан гипервизор — программное обеспечение, которое разворачивается на сервере и напрямую взаимодействует с его физическими ресурсами. Гипервизор отвечает за то, чтобы виртуальные машины «видели» эти ресурсы как собственные.

Зачем нужна виртуализация серверов

Виртуализация среды повышает гибкость и адаптивность ИТ-инфраструктуры организации, снижает расходы на ее содержание, делает рабочие нагрузки мобильными, а ресурсы — доступными. Последствиями виртуализации серверов будет рост автоматизации бизнес-процессов, улучшение управляемости и экономичности инфраструктуры, минимизация аварийных и предназначенных для технического обслуживания простоев.

В ситуации с серверами виртуализация решает сразу несколько важных задач.

  • Позволяет оптимизировать потребление вычислительных ресурсов и ресурсов хранения. До появления технологии виртуализации в дата-центрах скапливалось много оборудования, которое использовалось неэффективно. Пока одни машины работали в половину (или меньше) своего потенциала, другие были перегружены задачами и часто останавливались. Виртуализация решила эту проблему, и теперь рабочие нагрузки равномерно распределяются между несколькими машинами.
  • Сдерживает рост количества серверов. Теперь можно уменьшить количество серверов, необходимых в работе разным задачам и приложениям, установив вместо них одну машину и запустив на ней нужное число ОС (например, семейства Windows).
  • Снижает эксплуатационные расходы на содержание физического оборудования. Так как серверов меньше, организация может сэкономить на энергопотреблении и кондиционировании помещений (снизится тепловыделение, потому можно будет использовать менее мощные установки).
  • Упрощает миграцию данных. При переносе данных на другой сервер сокращается время выполнения организационных работ: IT-специалисту достаточно обновить драйверы на основной (хостовой) ОС, а гостевые продолжат работать в прежнем режиме, так как не привязаны к физическому оборудованию. Для пользователи, которые пользуются ресурсами виртуальных машин, такой «переезд» останется незамеченным.
  • Повышает производительность прикладного ПО. Если раньше одни приложения на 100 % потребляли физические ресурсы одной машины, сейчас эта ситуация исключена. Работающие виртуальные машины могут автоматически перемещаться на менее нагруженные серверы, чтобы снизить нагрузку на более нагруженные.
  • Делает серверы более доступными и сокращает простои оборудования. Меньше времени требуется на то, чтобы восстановить систему до исходного состояния в случае сбоя. Виртуальные серверы поддерживают технологию создания виртуальных снимков и умеют делать резервное копирование данных по заранее составленному расписанию.
  • Упрощает работу с виртуальной средой. Требуется меньше технических специалистов, которые занимаются обслуживанием системы. Администраторы ценят виртуализацию за то, что она позволяет удаленно управлять виртуальными серверами независимо от их количества и территориального расположения. Простой пример: если физическая машина «зависла», больше не нужно идти в серверную и перезагружать ее вручную — это можно сделать из консоли со своего рабочего места.

Есть ли недостатки у виртуализации?

Минус виртуализации в том, что для перехода на эту технологию организации с высокой вероятностью придется покупать новое оборудование — с более быстрыми процессорами, увеличенным объемом дискового пространства и оперативной памяти. Однако эти расходы окупаются в течение ближайших нескольких лет при условии, что компания развивается, а объемы данных, которыми она оперирует, непрерывно растут. Плюс один мощный сервер стоит дешевле, чем несколько менее мощных машин.

Процессоры в новых серверах должны поддерживать технологии виртуализации, если используются системы вроде MS Hyper-V. С этой задачей справляются микрочипы Intel VT или AMD-V, а вот процессоры линейки x86 32bit (одни из самых популярных в течение длительного времени) уже не подходят.

Плюсы и минусы технологии виртуализации необходимо рассматривать в контексте конкретной организации и тех задач, которые она решает. Возможны ситуации, когда недостатки технологии перевесят ее сильные стороны, но в мире быстро растущих данных это будет исключением из правил.

Где используется виртуализация серверов

  • Объединение большого количества физических машин в один пул ресурсов, который консолидирует вычислительные возможности процессора, объем оперативной памяти и дискового пространства. Это позволяет оптимизировать распределение нагрузок между запущенными приложениями.
  • Организация тестовых лабораторий и обучения. Виртуальные машины с Windows Server легко разворачивать и запускать. Это делает их удобными инструментами в работе с тестовыми средами для проверки работы нового программного обеспечения, а также организации обучения.
  • Распространение ПО. Некоторые разработчики предлагают свои продукты в виде готовых образов виртуальных машин. Виртуализация машин VMWare в VMTN работает именно по такому принципу.
  • Организация работы дата-центров. В центрах обработки данных виртуализация обеспечивает высокую гибкость ИТ-инфраструктуры и позволяет ей лучше соответствовать потребностям клиентов и их бизнеса.
  • Повышение отказоустойчивости IT-инфраструктуры. Сбой физического сервера приводят к критичным для бизнеса последствиям. В случае с виртуализацией виртуальные машины можно переносить на другое железо и так сократить время простоя.
  • Виртуализация кластеров. Если у организации нет возможности развернуть высокодоступный кластер, она может обойтись построением кластера виртуализированного. Популярные платформы для решения этой задачи — Microsoft Hyper-V и Red Hat Cluster Suite.

Решения для виртуализации серверов

Microsoft HyperV. Подходит для серверов, которые работают под управлением операционных систем Windows Server 2012, а Windows Server 2012 R2 и старше. Возможности Microsoft Hyper-V: виртуализация оборудования, работа на процессорах с x64 архитектурой, продуманная процедура кластеризации, функции реплицирования, удаленный мониторинг, гибкое управление коммутаторами и другие.

VMware. Компания-лидер в области разработки решений для виртуализации разработала собственный гипервизор и сегодня предлагает большой выбор инструментов для управления ИТ-инфраструктурой компании. Продукты VMware в том числе можно устанавливать поверх ОС Microsoft Windows.

Intel Virtualization Technology в Биосе: включать или нет?

Практически любой владелец ПК, рано или поздно, узнает о том, что на его компьютере присутствует специальный раздел БИОС, позволяющий изменять различные настройки. И изучая это место многие наталкиваются на такой интересный пункт, как Intel Virtualization Technology.

Естественно, сразу же у человека возникают вопросы и предположения:

  1. Что это такое?
  2. Что будет, если подключить данную технологию?
  3. Возможно ли таким образом ускорить работу компьютера, повысить его производительность?

То есть, пользователь сидит и размышляет, включать или нет IVT. Что же, давайте максимально подробно разберемся в этом вопросе.

История и особенности технологии

Впервые процессоры с этой технологией компания Интел выпустила в 2005-ом году. Производитель предложил сразу два варианта пользователям – 662-ю и 672-ю модели.

Изначально технология получила загадочное, многообещающее название «Vanderpool», но большинству юзеров она известна как VT-x.

Сразу хочется отметить, что не все фирменные центральные процессоры от этого производителя выпускаются с поддержкой этой технологии. Ее наличие подтверждается присутствием так называемого флага поддержки «vmx». Для проверки этого флага в операционных системах Linux и Mac присутствуют специальные команды:

  • Для первой это grep vmx /proc/cpuinfo;
  • Для второй ОС – sysctl machdep.cpu.features.

В 2013-ом году компания Intel предложила решение, которое ускоряет эту технологию. Оно стало доступно с архитектуры Haswell и называется VMCS. VT-x изначально создавалась для процессоров серии Pentium 4. На более современных моделях используется более продвинутый аналог – VT-d.

Аналогичная технология существует и у конкурента Интел – компании AMD. Она называется AMD-V и также имеет второе кодовое название – «Pacifica».

Для большинства процессоров VT-x изначально, по умолчанию, находится в неактивном состоянии. То есть, ее надо включать. И делается это как раз через BIOS. Но перед тем, как осуществить данный шаг, необходимо понимать, зачем это вообще нужно.

Нужна ли VT-x обычному пользователю ПК?

Суть Intel Virtualization Technology заключается в том, что технология позволяет создавать на обычном персональном компьютере так называемые виртуальные машины. И все. То есть, ни о каком ускорении, повышении производительности речи совершенно не идет.

Естественно, сразу же возникает вопрос – а пользуется ли обычный пользователь ПК этими самыми виртуальными машинами. Да, чаще всего их используют различные узкопрофильные специалисты, которые занимаются программированием, наладкой и другими процессами. Но и обычному обывателю такая ВМ может пригодиться. Для чего? Вот только несколько, самых популярных примеров:

  • Установка и полноценное использование на одном персональном компьютере сразу несколько различных операционных систем. Например, ОС Виндовс и Линукс. Удобно, когда требуется запустить какую-то специфическую программу, ради которой нет необходимости полностью менять операционку;
  • Использование программного обеспечения, благонадежность которого, по каким-либо причинам вызывает подозрения. Возможно, в них сидят вирусы, различные программы-шпионы или взлома. И запускать такое ПО на обычном компе очень нежелательно. А использование виртуальной машины позволит гарантировать, что основная система не пострадает. И одновременно получить желаемый результат;
  • Тестирование ПО. Иногда для этого необходимо создавать специальные условия. Например, иметь на ПК определенное количество ядер в процессоре, конкретную частоту ЦП, объем памяти и так далее. Использование ВМ позволяет легко выставить нужную конфигурацию и проверить результат. И не надо для этого физически что-то менять в оборудовании. Например, человек хочет запустить и часто использовать какую-то программку. Но характеристик его ПК недостаточно. Требуется апгрейд оборудования. Изначально можно подобрать оптимальную конфигурацию системы таким образом, а только затем – отправиться в магазин и приобрести все необходимое.
Читать еще:  Для чего нужен SSD накопитель в компьютере

Есть множество программ, которым требуется определенная версия операционной системы. Особенно это касается достаточно старых продуктов. Например, у вас стоит Десятка или Семерка Виндовс, а очень хочется запустить какое-то ПО (например, игру), которое нормально функционирует только в XP или в более ранних версиях. Установите ВМ и проблема будет быстро решена.

Еще один интересный вариант – работа с сайтами. Да, ВМ позволяет создавать эмуляцию сети. Представьте ситуацию:

  • Вы – неопытный пользователь, который очень хочет иметь собственный сайт. Но не имеет опыта в их создании;
  • Денег на это особо нет, чтобы привлекать сторонних специалистов. Плюс очень хочется научиться всему самому.

Можно пойти классическим путем:

  • Обратиться к хостинг-компании;
  • Заплатить за домен и оплату услуг удаленного сервера;
  • А затем – приняться за создание личного интернет-ресурса.

А если не получится? Или в процессе создания перехочется? Получается, что деньги были потрачены зря?

Установив виртуальную машину, можно спокойно создать эмуляцию сети и в полностью идентичном реальному режиму приступить к созданию прототипа своего сайта. И, если все получится и устроит человека – повторить все уже классическим способом.

Какие виртуальные машины предпочитают использовать сегодня?

Их достаточно большое количество. Но наиболее популярными вариантами считаются следующие:

VirtualBox

Этот продукт легко интегрируется с практически со всеми современными операционными системами. То есть, его можно запускать, если изначально на компе стоит Виндовс, Линукс, ОС Мак и так далее.

Поддерживает как 32-разрядную, так и 64-рязряднуцю систему.

Считается одним из лучших вариантов VM на сегодняшний день. Поддерживает все основные современные технологии. Например, спокойно работает с USB 3.0.

Единственный недостаток – она платная. Можно пользоваться и бесплатным вариантом, но в нем основной функционал будет изрядно урезан.

Microsoft Virtual PC

Полностью бесплатная оболочка. Правда, исходя из названия, сразу же можно выявить один недостаток. А именно, возможность работы только с ОС Microsoft Windows. Никаких Linux или Mac установить таким образом не получится.

Как активировать технологию VT-x

Итак, вы решили, что Intel Virtualization Technology является для задуманных целей необходимостью Естественно, возникает вопрос – как включить? Делается это следующим образом:

  1. Инициировать перезагрузку персонального компьютера стандартным способом.
  2. Во время включения компьютера успеть нажать на «Del» или на «F2».
  3. Таким образом вы попадете в меню настроек БИОС.
  4. Необходимо перейти в раздел, который называется Advanced BIOS Features.
  5. В нем найти пункт Virtualization или Virtualization Technology.
  6. Переключить рядом «Disabled» на «Enabled».

Остается только не забыть сделать сохранение изменений и перезапустить комп еще раз.

Виртуализация в процессоре

Привет, друзья! В последнее время, гиганты IT-индустрии, как с расписной торбой, носятся с идеей виртуализации. Мол, это настолько круто, что на любом офисном ПК должна быть виртуализация процессора. Для чего нужна такая технология, как это работает и нужна ли она конкретно вам, расскажу в сегодняшней публикации.

Virtualization Technology

Термин звучит, как название какой-нибудь секретной лаборатории, изобретающей адские машины для порабощения человечества, для дальнейшей интеграции его в Матрицу. В случае с процессором, это гораздо скучнее – всего лишь предоставление части вычислительной мощности, под конкретную задачу или несколько сразу.

Особенность в том, что под них создается специальная среда – своего рода «песочница», процессы в которой никак не могут повлиять на систему в целом, но могут обращаться к процессору напрямую, минуя посредников в виде основной ОС и все сопутствующие службы.

Сегодня, область практического применения, это технологии, развиваются по трем направлениям:

Виртуализация представлений

Терминальный сервер предоставляет свои мощности пользователю, и он же выполняет клиентское приложение, а на устройстве юзера отображаются только результаты расчетов. Это удобно тем, что существенно снижаются требования к программно-аппаратному обеспечению клиента и повышается безопасность.

В качестве терминального оборудования, можно использовать даже бюджетный смартфон. Недостаток в том, что существенно возрастают аппаратные требования к серверам, так как им приходится вести больше вычислений. Самый известный пример такого способа использования этой технологии – браузерные многопользовательские игры.

Виртуализация устройств

Так называется имитация аппаратной части компьютера, со строго заданными параметрами. На такой виртуальный компьютер можно установить собственную ОС и запускать с ее помощью приложения.

Технология широко используется для тестовых целей: перед релизом, программу всегда проверяют на разных устройствах, при необходимости оптимизируя и фикся баги.Пример использования – эмулятор Андроида: создается отдельное виртуальное устройство с собственной ОС, которое может быть использовано как для развлечений, так и проверки работоспособности приложений.

Виртуализация приложений

Программа запускается в изолированной среде и никак не контактирует с «внешним миром», поэтому не конфликтует и не наносит вреда другим приложениям. Таким же способом можно запустить разные версии одной и той же программы.

Пример использования технологии – безопасные браузеры, которые часто идут в программном пакете как дополнения к многим антивирусам. Даже при посещении вредоносных сайтов, расплодившаяся там зараза не может попасть в операционную систему.

Надо ли вам это

Зачем такая замечательная технология рядовому юзеру, что дает она и дает ли вообще? По большому счету, незачем, и поддержка виртуализации в процессоре домашнего ПК – скорее дань трендам, чем насущная необходимость.

С задачами по виртуализации, которые могут возникнуть, прекрасно справляются и программные средства. Если не поддерживает виртуализацию процессор вашего ПК – не спешите начинать апгрейд. Скорее всего, необходимости в этой технологии у вас не возникает вовсе.

Меж тем, технологии сегодня оказывают поддержку и широко внедряют оба кита, на которых держится производство компьютерных процессоров – Intel и AMD. Естественно, обойдется покупка такого девайса дороже – и не потому, что технически он гораздо сложнее.

Дело в маркетинге – за поддержку виртуализации, некоторые готовы выложить лишние деньги, не понимая толком, что такое им хотят продать.

Как включить виртуализацию

Активировать эту опцию можно в БИОСе (при условии, что она не включена изначально). Как включить: при перезагрузке компьютера нажать кнопку Del или F2 (чаще всего, на некоторых материнских платах кнопка может быть другой) и найти в меню пункт Virtualization Technology.Где именно искать – зависит от модели и версии BIOS. Следует выбрать опцию Enabled и, сохранив изменения, перезагрузить компьютер.

Вопреки распространенному заблуждению, базовая частота или коэффициент умножения, при этом не увеличивается, компьютер не станет мощнее и не начинают «летать», программы, которые до этого работали с глюками и тормозами – количество гигагерц, в которых измеряется производительность процессора, не возрастает и не образовываются дополнительные ядра.

Разницу можно почувствовать только при запуске гостевой ОС в привычной вам среде. Работать она будет шустро, именно благодаря прямому доступу виртуальной ОС к ресурсам процессора, что и должна обеспечить виртуализация.

Я уже упоминал в этой статье эмуляторы Android. Да, это виртуальные устройства с поддержкой виртуальной же ОС, поэтому для нормальной их работы, поддержка виртуализации таки необходима. В противном случае даже простенькие приложения будут дико тормозить – впрочем, как и сам Андроид, запущенный в среде Виндовс.

Отдельного упоминания эмуляторы заслуживают потому, что в последнее время они стали очень популярны. Несмотря на то, что почти в каждой семье уже есть планшет и несколько смартфонов, в некоторые игры удобнее играть с помощью клавиатуры и мышки – например, в PUBG Mobile.

Впрочем, это касается исключительно олдскульных геймеров. Поколению, выросшему на играх для сенсорных устройств, рубиться в шутеры, таки удобнее на планшетах и смартфонах.

А на этом откланиваюсь и настоятельно рекомендую подписаться на новостную рассылку, чтобы не пропустить очередную интересную и полезную публикацию. Буду весьма признателен, если вы поделитесь этой статьей в социальных сетях.

Читать еще:  WPS reset на роутере что это

Что такое виртуализация процессора простыми словами и как ее включить?

Привет, на связи Алексей! Слово «виртуальный» сегодня у всех на слуху. У меня до сих пор «виртуальность» ассоциациируется с фильмом «Косильщик лужаек», который вышел в девяностые годы. С тех пор прошло много времени. У нас еще не в ходу виртуальная реальность, слава Богу. Мы пока живем и мыслим в реальном мире. А вот виртуальные компьютеры уже легко может создать любой человек у себя дома. Сделать это позволяет технология виртуализации на процессоре вашего компьютера (или ноутбука).

В сегодняшнем материале сделаю краткий обзор как это работает, и расскажу для чего бывает нужен виртуальный компьютер. Самый простой пример — у вас дома в наличии есть обычный современный настольный ПК. На нем установлена операционная система Windows 7.

Вы решили осваивать Windows 10 или другую операционной систему, например Linux Mint. Раньше было доступно только два варианта. Или поставить новую вместо старой и потом переносить туда данные. Можно установить обе системы на один компьютер и запускать их поочередно. Но это не удобно.

Для того, чтобы на одном компьютере можно было запускать сразу несколько операционных систем одновременно и была реализована технология виртуализации. Проблема эта оказывается не нова, еще в 80 г двадцатого века ее пытались решить на Западе. В домашних условиях Вы, например, можете легко научиться самостоятельно устанавливать и осваивать такие операционные системы, с какими раньше не были знакомы. А потом и научиться использовать их.

Можно тестировать работу программ в разных операционных системах. Можно играть в любимые старые игры, которые не запускаются на новых операционных системах. Что еще дает запуск нескольких операционных систем? Виртуализация была придумана для того, чтобы экономить денежные средства. В крупных организациях стоят дорогие сервера, и вместо того чтобы тратить деньги на на покупку нового «железа» можно на ОДНОМ физическом системном блоке установить к примеру два виртуальных сервера.

Один почтовый, другой DNS. Мы получаем ДВА отдельных сервера. Каждый из этих виртуальных серверов работает изолированно от друг от друга как отдельный компьютер. При этом ресурсы физического компьютера используются на полную мощность (при правильном расчете). Никакого простоя. А если мы под эти задачи купили бы два раздельных сервера, то их ресурсы использовались бы процентов на сорок или даже меньше. А это невыгодно, даже с точки зрения потребления электричества.

Для того, чтобы технология заработала на вашем ПК, нужно чтобы его процессор поддерживал ее. В чем ее суть простыми словами? Обычный процессор работает примерно так. Есть операционная система (любая) и процессор. Часть данных операционной системы обрабатывается процессором на уровне «1«. Другая важная часть команд от операционной системы работает с процессором, например только на уровне «» и занимает эту область. Вы пытаетесь запустить виртуальную машину, а эта «нулевая» область уже занята реальной операционной системой.

Ничего не получится. Поэтому в процессоре должна быть область «-1«, которая одновременно принимала бы команды от «новой» операционной системы, и не затрагивала бы работу «старой». Нужен процессор, который умеет управлять работой двух операционных систем одновременно.

Что означает виртуализация процессора AMD?

Традиционно считается, что процессоры AMD у нас доступнее и дешевеле, чем INTEL. Это совсем не значит что они хуже. Многие домашние игровые компьютеры управляются процессорами AMD. Есть мнение, что технология виртуализации от AMD тоже проще и эффективнее, чему у Intel.

Виртуализация AMD (AMDV™) — это набор уникальных интегрированных в чип функций, которые позволяют клиентам на базе процессоров AMD запускать несколько операционных систем и приложений на одной машине. Впервые появилась в 2008 году на процессорах Athlon x64

При установке виртуальной машины вы выделяете для ее работы часть аппаратных средств физического компьютера. Часть жесткого диска и указанный объем оперативной памяти будет занимать гостевая операционная система, которая будет работать независимо от основной . AMD позволяет оптимально использовать ресурсы компьютерных систем в различных масштабах — от домашнего компьютера до серверных пулов. При должной настройке и контроле система надежна и безопасна.

Что такое виртуализация в процессорах Intel Core i5?

Компания Intel объявила о своих наработках в этом направлении в 2005 году. Технология носит название Intel VT и со времен процессора Pentium4 (672) ее процессоры поддерживают эту функцию. С тех пор функционал непрерывно совершенствуется и добавляются новые возможности. На сайте компании есть краткий перечень достижений:

  • касаемо процессора — на виртуальной машине производительность процессора будет практически такой же как и на физической. При замене процессора на более производительный возможна миграция. На виртуальной машине можно создавать еще одну виртуальную машину (вложенная виртуализация);
  • Оперативная память при использовании VT разделяется и изолируется в том объеме который вы выделите;
  • функция реализации оптимального ввода /вывода данных на жесткий диск и сетевые карты обеспечивает скорость работы по сети и чтения/записи;
  • Оптимизированы возможности поддержки графических процессоров в виртуальной машине, что позволяет создавать виртуальные удаленные рабочие места на одном сервере.

Что лучше — AMD или Intel — тут я думаю, что обе компании добились примерно одинаковых результатов. Теперь, когда мы познакомились с теорией, перейдем к практике. Для того, чтобы у вас заработало, нужно проверить включена ли у вас эта фукнция в настройках материнской платы.

Что значит виртуализация процессора в BIOS ?

Все современные процессоры поддерживают функцию. Ее только надо включить на материнской плате. Обычно она выключена и виртуальная машина не запустится. Для начала убеждаемся, что наш процессор поддерживает виртуализацию. Сделать это можно любым приложением, которое умеет собирать данные о вашем «железе» и выдавать ее в виде отчета.

Как проверить включена ли виртуализация на вашем ПК?

Есть утилиты которые проверяют включена ли функция на вашем процессоре, а не только ее наличие. Я пользуюсь CPU-Z, а включение проверяю в BIOS. Запустив програму переходим на вкладку «Процессор»:

У меня процессор Intel и набор инструкций должен быть AVX. На процессорах AMD соответсвенно будет AMD-V. Если у вас в наборе инструкции есть такая запись, значит нужно ее активировать в BIOS.

Включение виртуализации никак не влияет на производительность процессора если вы не запускаете никаких виртуальных машин на компьютере. Однако, если вы будете использовать виртуальную машину, то производительность возрастает.

В UEFI BIOS примерно так включается виртуализация:

На обычных BIOS включать можно так:

Теперь можно устанавливать и настраивать виртуальную машину. Об этом читаем далее.

Зачем же нужна виртуализация?

Раз уж мы говорим о виртуализации — наверняка у кого-то возникает вполне резонный вопрос: а для чего же это вообще нужно? Оговорюсь, что далее речь пойдет о виртуализации серверов. О виртуализации представлений и приложений — возможно, напишу чуть позже.

Я, признаться честно, являюсь технарем «до мозга костей», и модные аббревиатуры вроде TCO, ROI, etc., которыми очень любят оперировать господа маркетологи — для меня являются «китайской грамотой». Соответственно — буду писать о том, что я вижу как технарь.

Наверняка у многих сисадминов в хозяйстве имеется несколько серверов. И обычно это оправданно: многие задачи рекомендуется разносить по разным серверам. К примеру, Microsoft настоятельно не рекомендует совмещать контроллер домена Active Directory и интернет-шлюз на одном физическом сервере. Это создает серьезную угрозу безопасности: в случае атаки на вашу сеть каких-нибудь хакеров или вирусов — первым примет на себя удар, как Брестская Крепость, интернет-шлюз. В случае, если на нем размещался еще и контроллер домена — существует вероятность, что базы AD будут повреждены, либо, что еще хуже — окажутся в руках хакеров. В первом случае понадобится тратить время на восстановление из бэкапов, во втором — очень высокая вероятность дальнейших и более продуманных атак, с использованием логинов и паролей действующих пользователей сети. Ну или просто попадание e-mail адресов пользователей компании в базы спамеров — тоже приятного мало. Одна старая пословица говорит: «Не клади все яйца в одну корзину».

Соответственно, многие системные администраторы ставят контроллер домена на один физический сервер, а интернет-шлюз — на другой. И это, в принципе — правильно: если гипотетические хакеры атакуют интернет-шлюз, и атака будет успешной — вероятность того, что они проберутся дальше шлюза и получат доступ к другим серверам — много меньше.

Но тут возникает новая проблема: каждый отдельный сервер — стоит денег, причем не малых (если речь идет о брэндовых серверах). Каждый отдельный сервер потребляет электроэнергию, и занимает место на столе либо в стойке. Возможно, кому-то это покажется не особо актуальным, тем не менее — это является важным преимуществом. Особенно, если сервера размещаются в стороннем датацентре, где взымают плату за занимаемые юниты в стойках и энергопотребление строго ограничивается. К тому же, в европейских странах существует некий налог, который напрямую зависит от объемов электроэнергии, потребляемых компанией. Не помню, как этот налог называется — что-то связанное с экологией и выбросом CO2.

Читать еще:  Pup optional opencandy что это

Кроме этого, каждое из приложений редко потребляет много системных ресурсов: те же контроллеры доменов и интернет-шлюзы — на них редко загрузка процессора превышает 10%. Использование под каждую такую задачу отдельного сервера выглядит нерационально. Совмещать все на одном сервере — как мы уже выяснили, не правильно с точки зрения безопасности. Где же золотая середина? Как же сделать, чтобы и волки были сыты, и овцы целы (и пастуху — вечная память! ) Ответ дает как раз технология виртуализации.

Что же такое виртуализация? Виртуализация (а именно — виртуализация серверов) — это технология программной эмуляции аппаратного обеспечения компьютера. Причем, на одной физической машине может быть запущено несколько таких виртуальных «компьютеров». На такие виртуальные машины можно ставить операционную систему и приложения, и работать с ними, как с отдельными физическими машинами. Каждая виртуальная машина использует для своей работы какую-то часть аппаратных ресурсов физической машины. Причем, как правило, объем аппаратных ресурсов, выдаваемых отдельным виртуальным машинам можно регулировать — как жестко (статически), так и динамически. Таким образом, аппаратные ресурсы используются намного более рационально.

Простой пример: если у нас есть два приложения, которым для работы необходимо 128Мб оперативной памяти, и которые нельзя устанавливать на один физический сервер, можно:

  • 1) Купить два сервера с 128M RAM;
  • 2) Купить один сервер с 256M RAM (плюс еще какое-то количество «про запас» и для запуска хостовой ОС) и запустить оба приложения в отдельных виртуальных машинах.

Как видно, во втором случае ресурсы сервера (в частности, CPU) используется более рационально, и стоимость решения гораздо ниже, т.к. один сервер с чуть большим объемом RAM всегда дешевле двух серверов.

Может показаться, что развертывание нескольких виртуальных серверов на одном физическом — это и есть «класть все яйца в одну корзину», но я все же замечу, что это верно лишь отчасти. Да, при таком развертывании мы все же получаем единую точку отказа в виде одного физического сервера, но тем не менее, все виртуальные машины на физическом уровне изолированы друг от друга и от хостовой ОС. Это проистекает из самой идеологии виртуализации. Соответственно, при, поражении, к примеру, вирусом, одной из виртуальных машин — все остальные машины не будут затронуты его деструктивными действиями, чего трудно избежать при совмещении разных задач на одном сервере, без виртуализации.

Если же необходимо избежать единой точки отказа — можно купить, к примеру, два сервера и развернуть кластер. В этом случае, два физических сервера будут действовать как единая платформа для виртуализации. Если виртуальных машин, к примеру, 5 — это все равно выгоднее 5и отдельных серверов. А при отказе одного из серверов в кластере — виртуальные машины продолжат работу на другом — вот и все. Пользователи этого скорее всего не заметят. Ну, возможно, прервется у них работа на несколько секунд, это не так критично, как отказ на несколько часов.

Еще важный момент: виртуализация (если речь идет о решении от Microsoft) поможет сэкономить на лицензиях. К примеру, лицензия на Windows Server 2008 Standard позволяет бесплатно запускать внутри одну виртуальную машину, Enterprise — до 4, а Datacenter — вообще неограниченно (в пределах одного физического хоста).

Системные администраторы, кстати говоря, оценят и другие удобства виртуализации: быстрота развертывания виртуальных машин и простота резервного копирования.

Как известно, развертывание нового сервера занимает определенное время. Это — установка ОС, установка драйверов, установка приложений и т.п. Да, конечно, все параметры установки ОС можно задать в файле ответов автоматической установки, драйвера можно интегрировать в дистрибутив, приложения установить, например, через RunOnce, но все равно установка занимает время. Даже если создать полный образ системы — во-первых, его развертывание все равно займет порядка 10-15 минут просто из-за его объема и скорости чтения из сети или с DVD-ROM, во-вторых — для создания такого образа, как правило, необходимо прибегать к помощи стороннего ПО. С виртуальными же машинами все намного проще: можно создавать абсолютно идентичные «клоны» виртуальной машины за пару кликов мышью, и процесс займет порядка нескольких минут — ведь скорость работы дисковой подсистемы сервера намного выше, чем пропускная способность сети или скорость чтения DVD-ROM.

Приведу пример из собственного опыта. Контора, где я однажды работал, занималась, помимо прочего, и разработкой ПО. Естественно, разработчикам было необходимо где-то тестировать и отлаживать свои программы. Как нельзя лучше для этого подходили виртуальные машины. Благодаря клонированию — удалось создать эталонный образ, в результате которого развертывание новой виртуальной машины занимало порядка 3 минут. А у нас было целых два сервера, на каждом из которых работало примерно по 20 виртуальных машин. К слову сказать — использовался VMWare ESX Server, было просто два отдельных сервера — без VMotion и кластеров. Правда, для управления использовался Virtual Center.

Еще одна головная боль любого сисадмина — резервные копии. Как утверждает пословица: «Есть два типа сисадминов: те, которые еще не делают бэкапы, и те, которые уже делают». Резервное копирование — на первый взгляд, возможно, кажется бесполезной процедурой, но как только жареный петух куда-нить клюнет — тот, кто не делал бэкапы — начинает рвать на себе волосы, кусать локти и развертывать все заново. Если на сервере уже были какие-то важные данные — это то еще удовольствие. А если там была, например, база данных, содержащая бухгалтерию предприятия за последние 10 лет — то это просто смерти подобно. Не говоря уже, опять же, о простое — который может обернуться серьезными убытками. Ну не поймут клиенты, если им будут говорить «Подождите пожалуйста, у нас сервер не работает!» — они просто пойдут и купят у кого-то другого. Директор, естественно, админа за такое дело по головке не погладит.

Даже если делается бэкап, то не всегда можно дать 100% гарантию, что из него можно будет восстановить ОС на «голом железе», и она будет работать без ошибок. Особенно — если конфигурация аппаратного обеспечения будет немного отличаться от предыдущей. Близкую к 100%-ной гарантию дают системы резервного копирования, имеющие функцию «Bare Metal Restore» — например, Symantec BackupExec, CA ArcServe, IBM Tivoli Storage Manager, HP Data Protector. Но само это ПО стоит вполне приличных денег, и за функцию «Bare Metal Restore» придется заплатить отдельно: для ее использования, как правило, необходима отдельная лицензия.

С виртуальными же машинами намного проще: все «железо» там стандартное, ибо эмулируемое, и для полного бэкапа достаточно просто скопировать один или несколько файлов. Всё. Для восстановления достаточно просто скопировать файл(ы) на новый сервер, где уже установлена хостовая ОС со средой виртуализации, и «подцепить» их — и виртуальная машина будет работать как ни в чем не бывало.

Еще необходимо упомянуть так называемые моментальные снимки (snapshots): это — грубо говоря — бэкап виртуальной машины, хранящийся внутри нее самой. При необходимости можно просто «откатить» виртуалку на момент снятия моментального снимка — и она будет работать, как будто с того момента ничего не изменилось. Причем, у одной виртуальной машины может быть много таких snapshot’ов, и они могут образовывать древовидную структуру. Это позволяет «откатывать» систему ровно к необходимому моменту. Такой функцией могут пользоваться, к примеру, системные администраторы, делая snapshot до и после каких-либо важных изменений, и, если понадобиться, к примеру — откатиться до момента изменений. Или еще раньше. А потом, если надо — позже. И не нужно развертывать систему с нуля и снова повторять все свои действия. Наши разработчики, кстати, по достоинству оценили такую возможность: раньше, когда они использовали VirtualPC на своих рабочих станциях — делать такие «откаты» было затруднительно, часто приходилось создавать машину заново с эталонного образа.

Итак, подводя итог, вкратце — почему все же виртуализация серверов — это гуд:

  • Рациональное использование аппаратных ресурсов серверов;
  • Экономия денег на покупке новых серверов, экономия электроэнергии и физического пространства;
  • Экономия лицензий на виртуальные ОС (если речь о Microsoft);
  • Простота администрирования: легкость перемещения виртуальных машин с одного физического сервера на другой, быстрота развертывания новой машины из эталонного образа, простота создания резервной копии и восстановления из нее, использование «моментальных снимков».

Собственно, на этом хотелось бы завершить данную статью.

Ссылка на основную публикацию
Adblock
detector