Create RAID volume что это

JBOD (от англ.  Just a bunch of disks , просто пачка дисков) — дисковый массив, в котором единое логическое пространство распределено по жёстким дискам последовательно. Однако в некоторых RAID-контроллерах режимом «JBOD» назван режим, при котором контроллер работает как обычный IDE- или SATA-контроллер, не задействуя механизмы объединения дисков в массив, то есть в таком случае каждый диск будет виден как отдельное устройство в операционной системе. Этот факт указывает на то, что термин JBOD как режим функционирования дисков ещё окончательно не устоялся. Часть IT-специалистов трактует его буквально как «пучок» или «куча» дисков, каждый из которых функционирует независимо друг от друга, а понятие «spanning» (то есть «охват» данными нескольких дисков) относят уже не к JBOD, а к RAID-технологиям, поскольку имеет место организация дисков в простейший массив [1] .

  • Ёмкость массива равна сумме ёмкостей составляющих дисков
  • Вероятность отказа соответствует вероятности отказа любого диска из массива.
  • Скорость чтения и записи зависит от области данных; она не выше, чем у самого быстрого диска в массиве и не ниже чем у самого медленного
  • Нагрузка на процессор при работе минимальная (сравнимая с нагрузкой при работе с единичным диском)
  • Отказ одного диска позволяет восстановить файлы на остальных дисках (если ни один из их фрагментов не принадлежит повреждённому диску)
  • В ряде случаев возможно обеспечение высокой скорости работы нескольких приложений (при условии, что приложения работают с областями данных на разных дисках)
  • Массив может состоять из дисков различной ёмкости и скорости
  • Массив легко расширяется дополнительными дисками по мере надобности

В операционной системе Windows массив JBOD называется составным томом (spanned volume) (возможно создание только на динамических дисках), linux raid называет подобный тип компоновки linear RAID [2] , в FreeBSD аналогичную задачу решает GEOM класс geom_concat.

Настройка RAID

Основы, какими могут быть RAID массивы (т.е. то, как будем объединять диски)

Возьмем для примера 2 диска (речь может идти о любых накопителях: HDD, SSD и пр.) . Объединить их между собой можно по двум основным схемам:

  • вариант 1 : когда их объем суммируется, и мы получаем один большой диск (т.е. в Windows и в BIOS он будет отображаться как один накопитель!). Такую схему принято называть RAID 0;
  • вариант 2 : когда эти два диска будут являться копиями друг друга (т.е. зеркальными). Так делают для повышения надежности хранения информации. Эта схема называется RAID 1.

Обратите внимание также на табличку ниже.

RAID 0

RAID 1

  1. объем дисков «складывается» в единое целое (например, при подключении двух дисков по 500 ГБ — получите 1000 ГБ);
  2. скорость работы с RAID-массивом повышается (например, при объединении 2-х дисков — последовательная скорость увел. в 1,5-2 раза!);
  3. снижается надежность: при выходе из строя любого из дисков — данные будут утеряны.
  1. данные клонируются на всех дисках в RAID массиве (т.е. если выйдет из строя один диск — копии файлов можно найти на другом);
  2. скорость работы с накопителями не изменяется (такая же как при работе с одним из дисков).

Разумеется, видов RAID-массивов гораздо больше (RAID 5, RAID 6, RAID 10 и др.), но все они представляют из себя разновидности вышеприведенных (и, как правило, в домашних условиях не используются).

Пару слов о дисках и мат. плате

Не все материнские платы поддерживают работу с дисковыми массивами RAID. И прежде, чем переходить к вопросу объединению дисков, необходимо уточнить этот момент.

Как это сделать : сначала с помощью спец. утилит (например, AIDA 64) нужно узнать точную модель материнской платы компьютера.

Далее найти спецификацию к вашей мат. плате на официальном сайте производителя и посмотреть вкладку «Хранение» (в моем примере ниже, мат. плата поддерживает RAID 0, RAID 1, RAID 10).

Спецификация материнской платы

Спецификация материнской платы

Если ваша плата не поддерживает нужный вам вид RAID-массива, то у вас есть два варианта выхода из положения:

  1. воспользоваться программным способом поднятия RAID из-под Windows;
  2. приобрести спец. контроллер и установить его в PCI слот. Как правило, для его корректной работы необходимо также будет до-установить драйвер.

RAID-контроллер (в качестве примера)

RAID-контроллер (в качестве примера)

Важная заметка : RAID-массив при форматировании логического раздела, переустановки Windows и т.д. — не разрушится. Но при замене материнской платы (при обновлении чипсета и RAID-контроллера) — есть вероятность, что вы не сможете прочитать информацию с этого RAID-массива (т.е. информация не будет недоступна. ).

Что касается дисков под RAID-массив :

  1. в общем-то, можно использовать как жесткие диски (HDD), так и твердотельные накопители (SSD);
  2. не всегда нужно брать диски одинакового объема и одной модели (хотя это очень желательно). Например, если вы хотите сделать зеркальную копию своего диска (RAID 1) — можно взять диск или равный по объему, или больше;
  3. при создании RAID-массива — в большинстве случаев, информация с дисков (участвующих в этом) будет удалена.

Пример настройки RAID 0 в BIOS

Разумеется, в одной заметке вряд ли возможно показать настройки для разных мат. плат и способы объединения в RAID (в зависимости от вашего железа могут быть некоторые особенности). В примере ниже, я рассмотрю создание RAID 0 массива с применением современной технологии Intel Rapid Storage Technology .

Важно : при этом способе информация с дисков будет удалена!

Примечание : создать RAID-массив можно и из-под Windows (например, если вы хотите в целях безопасности сделать зеркальную копию своего диска).

1) И так, первым делом необходимо подключить диски к компьютеру (ноутбуку). Здесь на этом не останавливаюсь.

2) Далее нужно зайти в BIOS и установить 2 опции:

  • параметр SATA Mode Selection перевести в режим RAID (обычно он находится в разделе «Advanced») ;
  • Boot Mode Selection перевести в UEFI (раздел «Boot») .

Затем нужно сохранить настройки (чаще всего это клавиша F10) и перезагрузить компьютер.

Настройки BIOS - RAID

Настройки BIOS — RAID

3) После, следует снова зайти в BIOS и открыть вкладку Intel Rapid Storage Technology (обычно это раздел «Advanced») .

Intel Rapid Storage Technology

Intel Rapid Storage Technology

4) В этой вкладке должны отображаться все подключенные накопители. Для создания RAID-массива из них (не обязательно из всех) — нажмите по Create RAID Volume .

Create RAID Volume

Create RAID Volume

5) Теперь нужно указать:

  1. Name — имя массива, может быть любым;
  2. Rapid Level — тип массива, в своем примере я выбрал RAID 0 (т.е. объединение 2-х дисков в 1 с целью увеличения объема и скорости работы) ;
  3. Select Disk — выбор дисков (просто нужно отметить крестиками накопители, которые участвуют в объединении).

После нажатия на кнопку Create Volume — RAID-массив будет создан, им можно будет пользоваться как обычным отдельным накопителем.

Create Volume

6) Если приступить к установке Windows 10 (например) — то в шаге выбора диска вы увидите обычную надпись вида «Незанятое пространство на диске» составляет столько-то. (при объединении в RAID 0 двух дисков по 1 ТБ — общий объем получится 1863 ГБ, см. скрин ниже) .

Т.е. на этом этапе можно создать логический раздел (и не один) и устанавливать систему как на обычный жесткий диск (забыв о слове RAID совсем. ) .

Незанятое пространство на диске - установка ОС Windows 10

Незанятое пространство на диске — установка ОС Windows 10

Как создать RAID 0, RAID 1 программно (в ОС Windows 10)

Создать RAID-массив можно как с помощью средств BIOS, так и программно — при помощи инструментов в ОС Windows. Причем, такой вот программный способ не требует даже спец. материнской платы, поддерживающей работу с RAID-массивами.

Рассмотрю ниже пару конкретных примеров.

1) Покупаете и устанавливаете еще один-два диска (в зависимости от задач). Если ваша цель обезопасить свои данные (т.е. создание RAID 1) — то их объем должен быть равен (или быть больше) вашего основного накопителя;

2) Открываете управление дисками (для этого нужно: нажать Win+R, и в появившемся окне ввести команду diskmgmt.msc).

3) Теперь действия могут несколько отличаться.

Вариант 1 : допустим вы хотите объединить два новых диска в один, чтобы у вас был большой накопитель для разного рода файлов. В этом случае просто кликните правой кнопкой мышки по одному из новых дисков и выберите создание чередующегося тома (это подразумевает RAID 0). Далее укажите какие диски объединяете, файловую систему и пр.

Создать чередующийся или зеркальный том

Создать чередующийся или зеркальный том

Когда RAID-массив будет готов — в «Моем компьютере» у вас появится один логический диск, размер которого будет равен сумме объединенных дисков (в моем примере 3725,9 ГБ x 2 = 7,27 ТБ) .

Свойства диска

Вариант 2 : если же вы беспокоитесь за сохранность своих данных — то можно подключенный к системе новый диск сделать зеркальным вашему основному диску с ОС Windows, причем эта операция будет без потери данных (прим.: RAID 1).

Для этого, когда зайдёте в управление дисками — кликните правой кнопкой мышки по тому разделу диска, для которого хотите создать копию — в появившемся меню выберите «Добавить зеркало» , и укажите какой диск будет им являться (в моем случае это диск 1 ) .

Добавить зеркало

4) После Windows начнет автоматическую синхронизацию накопителей: т.е. с выбранного вами раздела все данные будут также скопированы на новый диск.

Ресинхронизация

5) В общем-то, всё, RAID 1 настроен — теперь при любых изменениях файлов на основном диске с Windows — они автоматически будут синхронизированы (перенесены) на второй диск.

Вероятность одновременного выхода из строя 2-х дисков — крайне маловероятна, если только не учитывать фактор постороннего вмешательства (сильный удар, затопление, пожар и т.д.).

6) Удалить зеркало, кстати, можно также из управления дисками : пример на скрине ниже.

Как создать RAID с помощью утилиты Intel rapid storage technology

Также есть специальные утилиты, которые помогают создавать и обслуживать RAID. Например, утилита Технология хранения Intel Rapid.

Скачиваем, устанавливаем и запускаем приложение.

Intel rapid storage technology

Меню «Состояние» – показывает состояние работы системы и ваших дисков.

Intel rapid storage technology

Меню «Создать» – позволит собрать RAID из ваших дисков.

Жмем создать, выбираем тип RAID. Программа дает возможность создать следующие типы: гибкая защита данных, RAID 1, 0, 5 и 10. В программе есть краткое описание каждого типа. Выбираем нужный и жмем Далее.

Intel rapid storage technology

Указываем имя тома, и выберите диски для массива. Отмечаем все нужные диски и параментры и жмем Далее. Если нужно установите дополнительные параметры. Размер тома и размер полосы данных, я оставляю «по умолчанию».

Intel rapid storage technology

Далее вы увидите предупреждение о том, что «Это действие навсегда удалит существующие данные на следующих дисках…». Если у вас на них хранятся важные данные, то сначала сохраните их в другое место.

Intel rapid storage technology

Ставим отметку напротив пункта «Продолжить и удалить данные» и жмем кнопку Создать том.

Создание тома выполнено. Но программа сообщает, что перед добавлением любых данных на свой том вы должны создать на нем разделы с помощью Управления дисками.

Intel rapid storage technology

Поэтому, открываем Управление дисками. И сразу же утилита сообщает что для того, чтобы диспетчер локальных дисков мог получить к нему доступ нужно инициализировать диск. Выбираем стиль раздела и жмем кнопку «Ok».

Управление дисками

Далее кликаем правой кнопкой по нашему диску и выбираем «Создать простой том». Следуем инструкциям мастера.

Управление дисками

Готово RAID готов к использованию.

RAID

Открыв проводник, вы увидите ваш диск.

RAID

В программе видно, что диск еще проходит Инициализацию, длительность процесса зависит от объёма дисков.

Intel rapid storage technology

С помощью данной утилиты вам проще будет отследить состояние вашего RAID. И если один из дисков выйдет из строя вы сразу же это увидите. В данной программе легко определить вышедший из строя диск, сделать это можно по серийному номеру. На каждом диске (на наклейке) есть его серийный номер.

HDD

Во вкладке «Настройка» можно настроить оповещения при любых неисправностях, и даже указать электронный адрес для автоматической отправки следующих оповещений.

Intel rapid storage technology

Intel rapid storage technology

А также настроить автоматическое перестроение в случае замены вышедшего из строя диска. Настроить автоматическую проверку и исправления ошибок диска в конкретно заданное время.

Intel rapid storage technology

В дополнительных опциях управления можно настроить очистку кэша и режим кэширования, а также проверить и исправить несоответствие данных на томе.

Intel rapid storage technology

Вот так без особых усилий следуя инструкции можно создать любой из доступных программных типов RAID в ОС Windows Server.

Dmytriy Zhura

Автор: Dmytriy Zhura, Технический писатель

Дмитрий Жура – автор и один из IT-инженеров компании Hetman Software. Имеет почти 10 летний опыт работы в IT-сфере: администрирование и настройка серверов, установка операционных систем и различного программного обеспечения, настройка сети, информационная безопасность, внедрения и консультация по использованию специализированного ПО. Является экспертом в области восстановления данных, файловых систем, устройств хранения данных и RAID массивов. Подробнее

Заключение

В заключении стоит отметить, что, как видно из вышеприведённой инструкции, здесь нет ничего чрезмерно сложного, только несколько простых шагов в довольном понятном интерфейсе. Главное, что необходимо отметить, — это правильность подбора компонентов и обоснованность их применения. Например, есть два одинаковых носителя, один из которых «дышит на ладан» и со дня на день потеряет свою работоспособность, то его объединение с другим диском никому пользы не принесёт. Поэтому, если уже вознамерились создать подобную структуру, то обеспечьте её достойными устройствами, дабы не пожалеть об этом потом. Также несущественно может отличаться от приведённого порядок действий, который во многом зависит от производителя отдельно взятой материнской платы.

Уровни «RAID»

«RAID» устройства, согласно установленной спецификации, будут использовать разные версии организации совместного дискового пространства, называемые уровнями. В оригинальной классификации, которая описывает непосредственно термин «RAID» и концепцию его установки, определены шесть уровней «RAID» – от «0» до «5». Подобная простая пронумерованная система позволила компьютерным специалистам различать между собой версии построения массивов «RAID». Однако количество существующих уровней с тех пор увеличилось и, для удобства, варианты уровней «RAID» были разделены на три основные категории: «базовые», «комбинированные» и «нестандартные». И далее мы рассмотрим каждую категорию более подробно и ознакомимся с ее основными представителями.

Базовые уровни «RAID»

«RAID 0»

«RAID 0» (чередование дисков) – данный уровень задействует процесс разделения массива данных на единичные блоки с последующим их распределением по нескольким устройствам хранения, таким как жесткие диски («HDD») или твердотельные накопители («SSD»), объединенных в совокупную группу. Блоки распределяются последовательно и содержат каждый свою часть данных на отдельном диске.

Поскольку чередование распределяет данные по большему количеству физических дисков, несколько дисков могут получить доступ к содержимому файла, что позволяет быстрее выполнять операции записи и чтения соответственно. Однако, в отличие от других уровней, «RAID 0» не имеет четности. Чередование дисков без данных четности в свою очередь не имеет избыточности или отказоустойчивости. Это означает, что в случае сбоя диска все данные на нем будут потеряны.

Системы хранения выполняют чередование дисков по-разному. Система может чередовать данные на уровне байтов, блоков или разделов, или чередовать данные на всех или некоторых дисках кластера. Например, система хранения с десятью жесткими дисками может разделить блок размером «64 килобайта» («КБ») на первом, втором, третьем, четвертом и пятом дисках, а затем начать снова с первого диска. Другая система может удалить «1 мегабайт» («МБ») данных на каждом из десяти дисков, прежде чем вернуться на первый диск, чтобы повторить процесс.

«RAID 0» лучше всего использовать для хранилища, наличие защиты от потери данных в котором не критично, но требуется поддержка высокоскоростного режима чтения и записи. Кэширование потокового видео в реальном времени и редактирование видео композиций – основные области применения уровня построения массива «RAID 0» по причине востребованности в повышенных показателях скорости и производительности. Чередование дисков без избыточности данных также может быть использовано для временных данных или в ситуациях, когда основная копия данных легко восстанавливается с другого устройства хранения.

RAID 0

«RAID 1»

Зеркальное отображение дисков, также известное как «RAID 1», представляет собой обязательное размещение данных на два или более дисков, составляющих единый массив, с последующей синхронизацией содержимого копий. Однако функция чередования в данном варианте построения массива запоминающих устройств отсутствует. Зеркальное отображение диска – хороший выбор для приложений, требующих высоких значений производительности и доступности, например, ответственных за финансовые операции, отправку и получение электронной почты, функционирование операционной системы. Зеркальное отображение успешно работает как с жесткими дисками, так и с твердотельными накопителями.

Поскольку каждый диск, из входящих в массив, находится в рабочем состоянии, данные могут считываться с них одновременно, что значительно увеличивает скорость чтения. Массив «RAID 1» будет полноценно функционировать даже если останется работоспособным только один диск. Операции записи, однако, медленнее, потому что каждая операция записи выполняется отдельно для каждого диска (в случае наличия массива из двух дисков запись будет выполнена дважды).

Зеркальное копирование дисков особенно полезно для сценариев аварийного восстановления, поскольку обеспечивает мгновенное восстановление требуемых, для критически важных приложений, данных сразу после отказа диска. Если первичные диски в массиве повреждены или не могут быть использованы, произойдет переключение на вторичные или зеркальные резервные диски, обладающие работоспособными копиями, и функционирование приложений, обращающихся к востребованным данным, не будет нарушено.

RAID 1

«RAID 2»

Данная конфигурация хранилища данных использует чередование дисков, в дополнение к которому выделены некоторые отдельные диски, хранящие информацию о проверке и исправлении ошибок («ECC»). Данный код исправления ошибок позволяет производить анализ данных, которые считываются или пересылаются, и, при необходимости, исправлять их непосредственно во время процесса передачи. «RAID 2» также использует выделенную четность кода Хемминга для обнаружения и коррекции ошибок. Но поскольку современные жесткие диски также используют само контролирующийся код Хемминга, то уровень «RAID 2» теперь считается устаревшим. В дополнение стоит отметить, что «RAID 2» не имеет преимуществ перед следующим вариантом организации дискового массива «RAID 3», и поэтому больше не используется.

RAID 2

«RAID 3»

Данный единый формат организации дискового массива использует чередование и выделяет один диск, из доступного объединения накопителей, для хранения информации о четности, которая ответственна за проверку целостности посредством определения, были ли данные потеряны или перезаписаны при непосредственном перемещении из одного места хранилища в другое или в момент передачи между компьютерами. Встроенная информация «ECC» используется для обнаружения ошибок, а восстановление данных осуществляется путем расчета эксклюзивной информации, записанной на других дисках.

Поскольку информация о четности находится на отдельном диске, а операция ввода-вывода обращается ко всем дискам одновременно, то при выполнении многочисленных небольших запросов данных «RAID 3» не работает должным образом. По этой причине данный массив лучше всего подходит для однопользовательских систем с длительной последовательной передачей данных, таких как обработка и передача потоковых мультимедийных ресурсов, графических материалов или исполнение операций по редактированию видео композиций.

RAID 3

«RAID 4»

Данная конфигурация массива «RAID» использует выделенный диск четности и чередование на уровне блоков между несколькими дисками, что позволяет пользователям осуществлять операции чтения записей с любого отдельного диска. Однако, поскольку все записи должны идти на выделенный диск четности, производительность данного процесса существенно снижена. Варианты «RAID 4», а также представленные ранее «RAID 3» и «RAID 2» в современных системах обычно не используются.

RAID 4

«RAID 5»

Избыточный массив конфигурации независимых дисков подобного формата основан в соответствии с принципом чередования на уровне блоков четности. Данные и информация о четности распределяются равномерно по всем дискам, что влечет за собой снижение критичной уязвимости отдельного запоминающего накопителя из организованного объединения, и позволяет массиву «RAID 5» функционировать даже в случае сбоя какого-нибудь одного диска, а также даже восстановить данные за счет чередования, утраченные с проблемного устройства. В «RAID 5» информация о четности хранится по диагонали на всех дисках массива. В случае отказа одного из дисков исходные данные рассчитываются на основе информации о четности, оставшейся на остальных действующих запоминающих устройствах набора.

Преимущества «RAID 5» в первую очередь заключаются в его совместном использовании чередования дисков и четности, что позволяет добиться существенного повышения пропускной способности и продуктивности совместно с высоким уровнем надежности.

Архитектура массива «RAID 5» позволяет равномерно и сбалансированно выполнять операции чтения и записи на нескольких дисках, и, в настоящее время, данный вид массива является одним из наиболее часто используемых форматов организации «RAID». Он имеет более полезное хранилище, чем конфигурации «RAID 1» и «RAID 10», и обеспечивает уровень работоспособности, эквивалентный параметрам массива «RAID 0». Группы «RAID 5» имеют минимум три жестких диска («HDD»), но часто, из соображений эффективности, рекомендуется использовать как минимум пять дисков. Поскольку данные о четности распределены по всем дискам, «RAID 5» считается одной из самых безопасных конфигураций «RAID».

Массивы «RAID 5» обычно считаются плохим выбором для использования в системах с интенсивной записью из-за влияния на производительность, связанного с записью данных четности. Когда диск выходит из строя, восстановление массива «RAID 5» может занять довольно много времени.

RAID 5

«RAID 6»

Данный формат организационного построения объединенного дискового пространства, также известный как «RAID с двойным контролем четности», очень похож на предыдущий уровень «RAID 5», но дополнительно включает в себя вторую схему четности, диагонально распределенную по дискам в массиве. Архитектурное построение «RAID 6» представляет собой одну из нескольких схем «RAID», которая функционирует, размещая данные на нескольких дисках и позволяя операциям ввода/вывода («I / O») перекрываться сбалансированным образом. Использование дополнительной четности позволяет массиву продолжать свое функционирование, даже если два диска выходят из строя одновременно. Однако повышенный уровень защищенности влияет в сторону снижения на производительность массива, которая ниже чем в формате хранилища «RAID 5».

Избыточный массив дисков «RAID 6» обеспечивает очень высокую отказоустойчивость и может использоваться в средах, где требуется длительный период хранения данных, таких как архивирование.

RAID 6

Комбинированные уровни «RAID»

Некоторые уровни «RAID» относятся, согласно установленной классификации, к категории комбинированных «RAID». Данные образцы организационного и конструктивного построения запоминающих устройств в формате единого массива представляют собой вариативное сочетание уже существующих базовых уровней «RAID». И далее мы рассмотрим несколько примеров распространенных и популярных комбинированных массивов.

«RAID 10» («RAID 1 + 0»)

«RAID 10», также известный как «RAID 1 + 0», представляет собой конфигурацию «RAID», которая объединяет для защиты данных зеркалирование диска и чередование дисков. Требуется минимум четыре диска, в которых данные чередуются на зеркальных парах. Пока один диск в каждой зеркальной паре функционирует, данные могут быть извлечены. В случае сбоя двух дисков в одной зеркальной паре все данные будут потеряны из-за отсутствия четности в чередующихся наборах.

Конфигурация «RAID 1» обеспечивает только защиту данных путем копирования всей информации с одного диска на другой. Данные полностью защищены, так как зеркальная копия доступна, если исходный диск отключен или поврежден. Поскольку данные полностью дублируются, массив «RAID 1» требует в два раза больше емкости, чем необходимо для исходных данных. «RAID 0» не обеспечивает никакой защиты данных, и его основная единственная цель заключается в повышении производительности. Это достигается путем распределения данных по двум или более дискам, чтобы несколько головок чтения / записи на дисках могли одновременно записывать или получать доступ к частям данных, что ускоряет общую обработку.

«RAID 10» обеспечивает избыточность данных и повышает продуктивность, и безусловно является хорошим вариантом для приложений с интенсивным вводом-выводом данных, включая электронную почту, удаленные хранилища и базы данных, операций, требующих высокой производительности диска, и организаций, простои в функционировании которых исключены.

Высокая эффективность «RAID 10» и его способность ускорять как операции записи, так и чтения, делают его подходящим для часто используемых, критически важных, серверов баз данных. Однако минимальные требования по комплектации в количестве четырех дисков делают «RAID 10» дорогостоящим выбором для небольших вычислительных сред, поскольку это влечет за собой стопроцентную нагрузку на хранилище, что может быть слишком затратно для малого бизнеса или для персонального личного использования.

RAID 10

«RAID 01» («RAID 0 + 1»)

Комбинированный формат конструкционного построения дискового пространства «RAID 0 + 1» аналогичен, ранее представленному, «RAID 1 + 0» за исключением того, что данный метод организации данных обладает одним существенным отличием. Вместо чередования зеркалированных массивов, совокупный уровень «RAID 0 + 1» создает массив типа «RAID 1», состоящий из двух вложенных массивов типа «RAID 0». Данный формат представления подразумевает использование четного количества дисков. Общий уровень продуктивности и, заложенной возможностями массива, эффективности объединения запоминающих устройств «RAID 01», в сравнении с образцом «RAID 10», при одинаковых параметрах практически идентичен, но отказоустойчивость варианта «RAID 01» несколько ниже, поэтому данный вид массива практически не задействуется.

«RAID 03» («RAID 0 + 3», также известный как «RAID 53» или «RAID 5 + 3»)

Представленный уровень комбинированного массива дисков использует чередование (в стиле базового уровня «RAID 0») для блоков виртуальных дисков конструктивного формата «RAID 3». Данный метод совокупной организации обеспечивает более высокую производительность, чем у массива «RAID 3», однако существенно влияет на конечную стоимость в сторону ее увеличения.

«RAID 50» (другое известное название «RAID 5 + 0»)

Данная конфигурация сочетает в себе распределенную четность «RAID 5» с чередованием «RAID 0» для повышения производительности задействованного варианта «RAID 5» без снижения защиты данных. Конструктивно, архитектура массива требует для полноценного функционирования наличия минимум шести дисков. Порядок организации совокупного дискового пространства на основе массива «RAID 50» обеспечивает гораздо лучшую производительность записи, повышенную защиту данных и более быстрое восстановление, чем базовый уровень «RAID 5». Продуктивность и суммарная эффективность не снижаются так сильно, как в массиве «RAID 5», поскольку один сбой влияет только на один массив. Совокупно, можно преодолеть до четырех отказов дисков, если каждый не отвечающий диск находится в отдельном массиве «RAID 5». Недостатком «RAID 50» является лишь тот факт, что массиву нужен сложный контроллер. Наилучший вариант использования «RAID 50» подразумевает его задействование для приложений, требующих высокой надежности.

Нестандартные уровни «RAID»

Главной отличительной особенностью указанных уровней массивов от базовых типов «RAID» безусловно является их непосредственные разработка, отдельными компаниями или организациями, и последующее использование уникальной конфигурации «RAID», являющейся авторской собственностью создателей, в проприетарных целях. И далее мы представим несколько таких примеров.

«RAID 7»

Нестандартный уровень «RAID», торговая марка которого принадлежит компании «Storage Computer Corporation». Массив конструктивно исполнен на основе базовых уровней «RAID 3» и «RAID 4» с добавлением операции кеширования. «RAID 7» включает в себя встроенную операционную систему реального времени в качестве контроллера, ответственную за запуск кода для исполнения заложенных функций, кеширование по высокоскоростной шине с использованием оперативной памяти и другие характеристики для управления доступом к диску и потоком данных.

Адаптивный «RAID»

Данный вариант организационного построения массива наделяет «RAID-контроллер» приоритетным правом определять порядок сохранения четности на дисках. Принятие решения будет основываться на сравнении двух уровней «RAID 3» и «RAID 5», и напрямую зависеть от того, какой тип «RAID-набора» будет работать лучше с типом данных, записываемых на диски.

«Linux MD RAID 10»

Предлагаемый уровень, предоставляемый ядром «Linux», поддерживает создание комбинированных и нестандартных «RAID-массивов» и позволяет управлять «RAID-устройствами» с помощью соответствующего прикладного функционального инструментария. Программный «RAID» для «Linux» также может поддерживать создание стандартных конфигураций, таких как «RAID 0», «RAID 1», «RAID 4», «RAID 5» и «RAID 6».

Уровень Количество
дисков
Эффективная
ёмкость*
Допустимое количество
вышедших из строя дисков
Надёжность Скорость
чтения
Скорость
записи
Примечание
от 2 S * N нет очень низкая высокая высокая Потеря данных при выходе из строя любого из дисков!
1 от 2 S N-1 дисков очень высокая средняя средняя N-кратная стоимость дискового пространства; максимально возможная надёжность; минимально возможный размер, скорость чтения/записи одиночного диска
1E от 3 S * N / 2 от 1 до N/2-1 дисков высокая высокая низкая Потеря данные при одновременном выходе из строя любых двух соседних дисков, либо первого с последним
10 от 4, чётное S * N / 2 от 1 до N/2 дисков** высокая высокая высокая двойная стоимость дискового пространства
01 от 4, чётное S * N / 2 от 1 до N/2 дисков** высокая высокая высокая двойная стоимость дискового пространства
5 от 3 S * (N − 1) 1 диск средняя высокая средняя
50 от 6, чётное S * (N − 2) от 1 до 2 дисков*** средняя высокая высокая
51 от 6, чётное S * (N − 2) / 2 от 2 до N/2+1 дисков**** высокая высокая низкая двойная стоимость дискового пространства
5E от 4 S * (N − 2) 1 диск средняя высокая высокая резервный накопитель работает
на холостом ходу и не проверяется
5EE от 4 S * (N − 2) 1 диск средняя высокая высокая резервный накопитель работает
на холостом ходу и не проверяется
6 от 4 S * (N − 2) 2 диска высокая высокая низкая или средняя

(может соответствовать скорости записи RAID 5)

* N — количество дисков в массиве, S — объём наименьшего диска [14] [15] [16] [17] .
** Информация не потеряется, если выйдут из строя диски в пределах разных зеркал.
*** Информация не потеряется, если выйдет из строя одинаковое кол-во дисков в разных stripe’ах.
**** Информация не потеряется, если выйдут из строя диски в пределах одного зеркала.

Записки IT специалиста

RAID-info-000.pngRAID-массивы давно и прочно вошли в повседневную деятельность администраторов даже небольших предприятий. Трудно найти того, кто никогда не использовал хотя бы «зеркало», но тем не менее очень и очень многие с завидной периодичностью теряют данные или испытывают иные сложности при эксплуатации массивов. Не говоря уже о распространенных мифах, которые продолжают витать вокруг вроде бы давно избитой темы. Кроме того, современные условия вносят свои коррективы и то, чтобы было оптимальным еще несколько лет назад сегодня утратило свою актуальность или стало нежелательным к применению.

Чем является и чем не является RAID-массив

Наиболее популярен миф, что RAID предназначен для защиты данных, многие настолько верят в это, что забывают про резервное копирование. Но это не так. RAID-массив никоим образом не защищает пользовательские данные, если вы захотите их удалить, зашифровать, отформатировать — наличие или отсутствие RAID вам абсолютно не помешает. Две основных задачи RIAD-массивов — это защита дисковой подсистемы от выхода из строя одного или нескольких дисков и / или улучшение ее параметров по сравнению с одиночным диском (получение более высокой скорости обмена с дисками, большего количества IOPS и т.д.).

Здесь может возникнуть некоторая путаница, ведь сначала мы сказали, что RAID не защищает, а потом выяснилось, что все-таки защищает, но никакой путаницы нет. Основную ценность для пользователя представляют данные, причем не некоторые абстрактные нули-единицы, кластеры и блоки, а вполне «осязаемые» файлы, которые содержат необходимую нам информацию, иногда очень дорогостоящую. Мы будем в последствии называть это пользовательскими данными или просто данными.

RAID-контроллер о данных ничего не знает, он оперирует с блочными устройствами ввода-вывода. И все что поступает к нему от драйвера — это просто поток байтов, который нужно определенным образом разместить на устройствах хранения. Сам набор блочных устройств объединенных некоторым образом отдается системе в виде некоторой виртуальной сущности, которую принято называть массивом, а в терминологии контроллера — LUN, для системы это выглядит как самый обычный диск, с которым мы можем делать все что угодно: размечать, форматировать, записывать данные.

Как видим, работа RAID-контроллера закончилась на формировании LUN и предоставлении его системе, поэтому защита контроллера распространяется только на этот самый LUN — т.е. логическая структура массива, которую система видит как жесткий диск, должна уцелеть при отказе одного или нескольких дисков составляющих этот массив. Ни более, ни менее. Все что находится выше уровнем: файловая система, пользовательские данные — на это «защита» контроллера не распространяется.

Простой пример. Из «зеркала» вылетает один из дисков, со второго система отказывается грузиться, так как часть данных оказалась повреждена (скажем BAD-блок). Сразу возникает масса «претензий» к RAID, но все они беспочвенны. Главную задачу контроллер выполнил — сохранил работоспособность массива. А в том, что размещенная на нем файловая система оказалась повреждена — это вина администратора, не уделившего должного внимания системе.

Поэтому следует запомнить — RAID-массив защищает от выхода из строя одного или нескольких дисков только самого себя, точнее тот диск, который вы видите в системе, но никак ни его содержимое.

BAD-блоки и неисправимые ошибки чтения

Раз мы коснулись содержимого, то самое время разобраться, что же с ним может быть «не так». Начнем с привычного зла, BAD-блоков. Есть мнение, что если на диске появился сбойный сектор — то диск «посыпался» и его надо менять. Но это не так. Сбойные сектора могут появляться на абсолютно исправных дисках, просто в силу технологии, и ничего страшного в этом нет, обнаружив такой сектор контроллер просто заменит его в LBA-таблице блоком из резервной области и продолжит нормально работать дальше.

Дальше простая статистика, чем выше объем диска — тем больше физических секторов он содержит, тем меньше их физический размер и тем выше вероятность появления сбойных секторов. Грубо говоря, если взять произведенные по одной технологии диски объемом в 1ТБ и 4 ТБ, то у последнего вероятность появления BAD-блока в четыре раза выше.

К чему это может привести? Про ситуацию, когда администратор не контролирует SMART и у диска давно закончилась резервная область мы всерьез говорить не будем, тут и так все понятно. Это как раз тот случай, когда диск реально посыпался и его нужно менять. Большую опасность представляет иная ситуация. Согласно исследованиям, достаточно большие объемы данных составляют т.н. cold data — холодные или замороженные данные — это массивы данных доступ к которым крайне редок. Этом могут быть какие-нибудь архивы, домашние фото и видеоколлекции и т.д. и т.п., они могут месяцами и годами лежать не тронутыми никем, даже антивирусом.

Если в этой области данных возникнет сбойный сектор, то он вполне себе может остаться необнаруженным до момента реконструкции (ребилда) массива или попыток слить данные с массива с отказавшей избыточностью. В зависимости от типа массива такой сектор может привести от невозможности выполнить ребилд до полной потери массива во время его реконструкции. По факту невозможность считать данные с еще одного диска в массиве без избыточности можно рассматривать как отказ еще одного диска со всеми вытекающими.

Кроме физически поврежденных секторов на диске могут быть логические ошибки. Чаще всего они возникают, когда контроллер без резервной батарейки использует кеширование записи на диск. При неожиданной потере питания может выйти, что контроллер уже сообщил системе о завершении записи, но сам не успел физически записать данные, либо сделал это некорректно. Попав в область с холодными данными, такая ошибка тоже может жить очень долго, проявив себя в аварийной ситуации.

Ну и наконец самое интересное: неисправимые ошибки чтения — URE (Unrecoverable Read Error) или BER (Bit Error Ratio) — величина, показывающая вероятность сбоя на количество прочитанных головками диска бит. На первый взляд это очень большая величина, скажем для бытовых дисков типичное значение 10^14 (10 в 14 степени), но если перевести ее в привычные нам единицы измерения, то получим примерно следующее:

  • HDD массовых серий — 10^14 — 12,5 ТБ
  • HDD корпоративных серий — 10^15 — 125 ТБ
  • SSD массовых серий — 10^16 — 1,25 ПБ
  • SSD корпоративных серий — 10^17 — 12,5 ПБ

В данном случае в качестве единицы измерения мы использовали десятичные единицы измерения объема, т.е. те, что написаны на этикетке диска, исходя из того, что 1 КБ = 1000 Б.

Что это значит? Это значит, что для массовых дисков вероятность появления ошибки чтения стремится к единице на каждые прочитанные 12,5 ТБ, что по сегодняшним меркам не так уж и много. Если такая ошибка будет получена во время ребилда — это, как и в случае со сбойным сектором, эквивалентно отказу еще одного диска и может привести к самым печальным последствиям.

MTBF — наработка на отказ

Еще один важный параметр, который очень многими трактуется неправильно. Если мы возьмем значение наработки на отказ для современного массового диска, скажем Seagate Barracuda 2 Тб ST2000DM008, то это будет 1 млн. часов, для диска корпоративной серии Seagate Enterprise Capacity 3.5 2 Тб ST2000NM0008 — 2 млн. часов. На первый взгляд какие-то запредельные цифры и судя по ним диски никогда не должны ломаться. Однако этот показатель определяет не срок службы устройства, а среднее вермя между отказами — MTBF ( Mean time between failures ) — а в качестве времени подразумевается время работы устройства.

Если у вас есть 1000 дисков, то при MTBF в 1 млн. часов вы будете получать в среднем один отказ на 1000 часов. Т.е. большие значения оказываются не такими уж и большими. Для оценки вероятности отказа применяется иной показатель — AFR (Annual failure rate) — годовая частота отказов. Ее несложно рассчитать по формуле, где n — количество дисков:

Так для одиночного диска массовой серии годовая частота отказов составит 0,87%, а для корпоративных дисков 0,44%, вроде бы немного, но если сделать расчет для массива из 5 дисков, то мы получим уже 4,28% / 2,16%. Согласитесь, что вероятность отказа в 5% достаточно велика, чтобы сбрасывать ее со счетов. В тоже время такое знание позволяет обоснованно подходить к закупке комплектующих, теперь вы можете не просто апеллировать к тому, что вам нужны корпоративные диски, потому что они «энтерпрайз и все такое. «, а грамотно обосновать свое мнение с цифрами в руках.

Но в реальной жизни не все так просто, годовая величина отказов не является статичной величиной, а подчиняется законам статистики, учитывающим совокупность реальных факторов. Не углубляясь в теорию мы приведем классическую кривую интенсивности отказов:

RAID-info-002.png

Как можно видеть, в самом начале эксплуатации вероятность отказов наиболее велика, постепенно снижаясь. Этот период, обозначенный на графике t0 — t1, называется периодом приработки. В этот момент вскрывается производственный брак, ошибки в планировании системы, неверные режимы и условия эксплуатации. Повышенная нагрузка увеличивает вероятность отказов, так как позволяет быстрее выявить брак и ошибки эксплуатации.

За ним следует период нормальной эксплуатации t1-t2, вероятность отказов в котором невелика и соответствует расчетным значениям (т.е. тем показателям, которые мы вычислили выше).

Правее отметки t2 на графике начинается период износовых отказов, когда оборудование начинает выходить из строя выработав свой ресурс, повышенная нагрузка будет только усугублять этот показатель. Также обратите внимание, что функция износа изменяется не линейно, по отношении ко времени, а по логарифмической функции. Т.е. в периоде износа отказы будут увеличиваться постепенно, а не сразу, но, с какого-то момента стремительно.

К чему это может привести? Скажем, если вы эксплуатируете массив, находящийся в периоде износовых отказов и у него выходит из строя один из дисков, то повышенная нагрузка во время ребилда способна привести к новым отказам, что чревато полной потерей массива и данных.

Для жестких дисков и SSD, согласно имеющейся статистики, период приработки где-то равен 3-6 месяцам. А период износовых отказов следует начинать отсчитывать с момента окончания срока гарантии производителя. Для большинства дисков это два года. Это хорошо укладывается в ту же статистику, которая фиксирует увеличение количества отказов на 3-4 году эксплуатации.

Мы не будем сейчас делать выводы и давать советы, приведенных нами теоретических данных вполне достаточно, чтобы каждый мог самостоятельно оценить собственные риски.

Немного терминологии

Прежде чем двигаться дальше — следует определиться с используемыми терминами, тем более что с ними не все так однозначно. Путаницу вносят сами производители, используя различные термины для обозначения одних и тех же вещей, а перевод на русский часто добавляет неопределенности. Мы не претендуем на истину в последней инстанции, но в дальнейшем будем придерживаться описанной ниже системы.

Весь входящий поток данных разбивается контроллером на блоки определенного размера, которые последовательно записываются на диски массива. Каждый такой блок является минимальной единицей данных, с которой оперирует RAID-контроллер. На схеме ниже мы схематично представили массив из трех дисков (RAID 5).

RAID-info-001.png

Каждая шайба на схеме представляет один такой блок, для обозначения которого используют термины: Strip, Stripe Unit, Stripe Size или Chunk, Сhunk Size. В русскоязычной терминологии это может быть блок, «страйп», «чанк». Мы, во избежание путаницы с другой сущностью, предпочитаем использовать для его обозначения термин Chunk (чанк, блок), в тоже время встроенный во многие материнские платы Intel RAID использует термин Stripe Size.

Группа блоков (чанков) расположенная по одинаковым адресам на всех дисках массива обозначается в русскоязычных терминах как лента или полоса. В англоязычной снова используется Stripe, а также «страйп» в переводах, что в ряде случаев способно внести путаницу, поэтому при трактовании термина всегда следует учитывать контекст его употребления.

Каждая полоса содержит либо набор данных, либо данные и их контрольные суммы, которые вычисляются на основе данных каждой такой полосы. Глубиной или шириной полосы (Stripe width/depth) называется объем данных, содержащийся в каждой полосе.

Так если размер чанка равен 64 КБ (типовое значение для многих контроллеров), то вычислить ширину полосы мы можем, умножив это значение на количество дисков с данными в массиве. Для RAID 5 из трех дисков — это два, поэтому ширина полосы будет 128 КБ, для RAID 10 из четырех дисков — это четыре и ширина полосы будет 256 КБ.

RAID 0

Перейдем, наконец от теории, к разбору конкретных реализаций RAID. Из всех вариантов RAID 0 — единственный тип массива, который не содержит избыточности, также его еще называют чередующимся массивом или страйпом (Stripe).

RAID-info-003.png

Принцип работы чередующегося массива прост — поток данных делится на блоки (чанки), которые по очереди записываются на все диски массива. При этом ни один диск массива не содержит полной копии данных, зато за счет одновременных операций чтения / записи достигается практически кратный количеству дисков прирост скорости. Объем массива равен сумме объема всех дисков.

Несложно заменить, что отказ даже одного диска будет для массива фатальным, поэтому в чистом виде он практически не используется, разве что в тех случаях, когда на первый взгляд выходит быстродействие, при низких требованиях к сохранности данных. Например, рабочие станции, которые размещают на таких массивах только рабочий набор данных, который обрабатывается в текущий момент.

RAID 1

Один из самых популярных видов массивов, знакомый, пожалуй, каждому. RAID 1, он же зеркало (Mirror), состоит обычно из двух дисков, данные на которых дублируют друг друга.

RAID-info-004.png

Входящие данные также разбиваются на блоки и каждый блок записывается на все диски массива, тем самым обеспечивая избыточность. При отказе одного из дисков на втором у нас остается полная копия данных. Дополнительный плюс в том, что для восстановления таких данных не требуется никаких дополнительных операций, вы можете просто присоединить диск к любому ПК и выполнить с него чтение, что важно, если ребилд массива по какой-либо причине сделать не удастся.

Но за это приходится платить большими потерями емкости — емкость массива равна емкости одного диска, поэтому зеркала с более чем двумя дисками на практике не используют. Также это негативно сказывается на быстродействии. Вспомним, что еще одной причиной объединения дисков в массивы является увеличение быстродействия, при этом важна не линейная скорость записи / чтения, а количество операций ввода вывода в секунду — IOPS — которые может предоставить диск.

В первом приближении общее количество IOPS массива — это суммарное количество IOPS его дисков, но на практике оно будет меньше за счет накладных расходов в самом массиве. В RAID 1 для выполнения одной операции записи массив производит две записи данных, по одной на каждый диск. Этот параметр называется RAID-пенальти и показывает сколько операций ввода вывода делает массив для обеспечения одной операции записи. Операции чтения не подвержены пенальти.

Для RAID 1 пенальти равно двум. Поэтому его производительность на запись не отличается от производительности одиночного жесткого диска. На чтение, теоретически, можно достичь двойной производительности за счет одновременного чтения с разных дисков, но на практике такая функция в контроллерах не реализуется. Поэтому чтение с зеркала также не отличается по производительности от одиночного диска.

Как видим, RAID 0 предоставляет нам высокую производительность при отсутствии надежности, а RAID 1 — высокую надежность без увеличения производительности. Поэтому существуют комбинированные уровни RAID, сочетающие достоинства нескольких типов массивов.

RAID 01 (0+1)

Этот тип массива часто путают с RAID 10, но это неверно, первым числом в наименовании массива всегда указывается вложенный массив, а вторым — внешний. Таким образом RAID 01 — зеркало из страйпов, а RAID 10 — страйп из зеркал. Какая разница? А вот сейчас и посмотрим.

RAID-info-005.png

Так как внешним массивом является RAID 1 — зеркало, то на оба вложенных чередующихся массива подается одинаковый набор данных, который распределяется без избыточности по дискам массива. В итоге получаем два одинаковых RAID 0 массива, которые собраны в зеркало.

Что случится при отказе одного диска? Ничего страшного, массив выдерживает такой отказ. А если выйдут из строя два? В этом случае возможны варианты:

RAID-info-006.png

Для массива из четырех дисков (а это минимальное количество для этого уровня RAID) у нас есть шесть вариантов отказа двух дисков. Исходя из того, что отказ из любого диска RAID 0 является для него фатальным, то получаем 4 отказа из 6 или 66,67%. Т.е. при потере двух дисков вы потеряете свои данные с вероятностью 66,67%, что довольно-таки много.

RAID 10

«Десятка» также собирается минимум из 4 дисков, но внутренняя структуре ее зеркально отличается от 0+1:

RAID-info-007.png

Массив верхнего уровня RAID 0 — делит входящие данные и распределяет их между низлежащими массивами RAID 1. В итоге получаем чередующийся массив из нескольких зеркал. В чем тут принципиальная разница с предыдущим массивом? А вот в чем, снова рассмотрим ситуацию отказа сразу двух дисков:

RAID-info-008.png

В отличие от страйпа, для отказа зеркала нужен выход из строя обоих диском массива и только эта ситуация приведет к полному отказу RAID 10, из 6 вариантов это произойдет только в двух случаях, т.е. вероятность потери данных при отказе двух дисков в RAID 10 равна 33,33%. А теперь сравните это с 66,77% у RAID 0+1, поэтому в настоящее время применяется исключительно RAID 10, так как при одинаковых показателях производительности обеспечивает гораздо более высокую надежность.

Пенальти RAID 10, также, как и RAID 1 равно двум, но за счет наличия четырех дисков он обеспечивает скоростные показатели аналогичные RAID 0 при надежности сопоставимой с RAID 1, емкость массива равна емкости половины его дисков.

На сегодня RAID 10 — наиболее производительный RAID-массив с высокой надежностью, его единственный и довольно существенный недостаток — высокие накладные расходы — 50% (половина дисков используется для создания избыточности).

RAID 5

Существует распространенное заблуждение, что RAID 5 (и RAID 6) — это более «крутые» уровни RAID, правда редко кто при этом может пояснить чем они «круче», но миф продолжает жить и очень часто администраторы выбирают уровень RAID исходя из таких вот заблуждений, а не реальных показателей.

Устройство RAID 5 более сложно, чем у «младших» уровней RAID и здесь появляется понятие контрольной суммы, на же Рarity, четность. В основу алгоритма положена логическая функция XOR (исключающее ИЛИ), так для трех переменных будет справедливо равенство:

Где p — контрольная сумма или четность. При этом мы всегда можем вычислить любую из переменных зная четность и остальные значения, т.е.:

Данные формулы остаются справедливы для любого количества переменных, позволяя обходится единственным значением четности. Таким образом минимальное количество дисков в RAID 5 будет равно трем: два диска для данных и один диск для четности. Раньше существовали реализации RAID 3 и 4, которые использовали для хранения блоков четности отдельный диск, что приводило к высокой нагрузке на него, в RAID 5 поступили иначе.

RAID-info-009.png

Здесь данные точно также разбиваются на блоки и распределяются по дискам, как в RAID 0, но появляется еще и понятие полосы, для каждой полосы данных вычисляется контрольная сумма и записывается в той же полосе на отдельном диске, т.е. один из дисков полосы выполняет роль диска для хранения четности. В следующей полосе происходит чередование дисков, теперь два других диска будут хранить данные, а третий четность. Таким образом достигается равномерное использование всех дисков, что снижает нагрузку на диски и повышает производительность массива в целом.

Основным стимулом создания RAID 5 было более оптимальное использование дисков в массиве, так в массиве из 3 дисков накладные расходы RAID 5 составят 33%, из 4 дисков — 25 %, из 6 дисков — 16%. Но при этом вырастает пенальти, в RAID 5 на одну операцию записи приходятся операции: чтение данных, чтение четности, запись новых данных, запись четности. Таким образом пенальти для RAID 5 составляет четыре.

Это означает, что производительность на запись массивов из небольшого числа дисков (менее 5) будет ниже, чем у одиночного диска, но производительность чтения будет сравнима с RAID 0. При этом массив допускает отказ любого одного диска.

В этом месте мы подходим к развенчанию одного из мифов, что RAID 5 «круче», нет, он не «круче», а по производительности даже уступает тому же RAID 10 (а иногда даже и зеркалу). Но по соотношению производительности, накладных расходов и надежности данный уровень RAID представлял наиболее разумный компромисс, что и обеспечило его популярность.

Внимательный читатель заметит, что в прошлом абзаце мы высказались о преимуществах RAID 5 в прошедшем времени, действительно это так, но, чтобы понять почему, следует поговорить о недостатках, которые наиболее ярко проявляются при выходе из строя одного из дисков.

В отличие от RAID 1 / 10 при отказе диска RAID 5 не будет содержать полной копии данных, только их часть плюс контрольные суммы. Это означает что у нас появится пенальти на чтение — для чтения недостающего фрагмента данных нам потребуется полностью считать полосу и провести ряд вычислений для восстановления отсутствующих значений. Это резко снижает производительность массива и увеличивает нагрузку на него, что может привести к выходу из строя оставшихся дисков.

При отказе одного диска массив переходит в режим деградации, при этом по его надежность начинает соответствовать RAID 0, т.е. отказ еще одного диска, BAD-блок или ошибка URE могут стать для него фатальными. При замене неисправного диска массив переходит в режим реконструкции (ребилда), который сопряжен с высокой нагрузкой на оборудование, так как для восстановления контроллер должен прочитать весь объем данных массива. Любой сбой в процессе ребилда также может привести к полному разрушению массива.

А теперь вспомним значение URE для современных массовых дисков — 10^14, что это значит в нашем случае? А то, что собрав RAID 5 из четырех дисков на 4 ТБ (с объемом данных 12 ТБ) вы с вероятностью очень близкой к 100% получите невосстановимую ошибку чтения при ребилде и потеряете массив полностью.

Но это не значит, что RAID 5 изначально имел столь критические недостатки. Вернемся на 10 лет назад, основной объем ходовых моделей дисков тогда составлял 250-500 ГБ, URE для популярной тогда серии Barracuda 7200.10 был теми же 10^14, а MTBF был немного ниже — 700 тыс. часов.

Допустим мы собрали тогда массив из 4 дисков по 750 ГБ (топовые диски на тот момент), объем данных такого массива составит 2,25 ТБ, вероятность получить URE будет в районе 18%. В общем и целом — немного, большинство успешно реконструировало массив, а голоса тех, кому не повезло, тонули в общем хоре тех, у кого все было хорошо.

Но сегодня RAID 5 в принципе неприменим с массовыми сериями дисков, и с определенными оглядками применим на корпоративных сериях. Не смотря на более высокое значение URE последних, не будем забывать о возможных сбойных областях в зоне холодных данных, а чем больше объем дисков, тем больше секторов, тем больше вероятность сбоя в одном из них.

Также это хорошая иллюстрация пагубности мифов, так как собрав сегодня «крутой» массив RAID 5 вы с очень большой вероятностью просто угробите все свои данные при отказе одного из дисков.

RAID 5E

Как мы уже успели выяснить, ситуация с отказом одного из дисков является для RAID 5 критической — массив переходит в режим деградации с серьезным падением производительности и существенным ростом нагрузки на диски, а его надежность падает до уровня RAID 0 и любая ошибка способна полностью разрушить массив с полной потерей данных. Поэтому чем быстрее мы заменим сбойный диск — тем скорее выведем массив из зоны риска.

Первоначально этот вопрос решался, да и решается до сих пор, выделением диска горячей замены. Такой диск может быть выделенным, т.е. привязанным к указанному массиву, или разделяемым, тогда в случае отказа он будет использован одним из отказавших массивов. Но у этого подхода есть серьезный недостаток — фактически мы никак не используем резервный диск, а так как отказы происходят не каждый день, то его ресурс просто тратится впустую.

RAID 5E предлагает иной подход, пространство резервного диска разделяется между остальными дисками и остается неразмеченным в конце каждого диска массива.

RAID-info-010.png

Такой подход связан с некоторыми ограничениями, а именно — один раздел на один массив. Из плюсов — более высокая производительность за счет использования дополнительного диска. Что происходит при отказе? Массив автоматически начинает реконструкцию размещая данные в неразмеченной области (производит сжатие), после чего массив фактически превращается в простой RAID 5 и способен выдержать отказ еще одного диска (но не во время перестроения).

При замене неисправного диска массив переносит данные из резервной области на новый диск и снова начинает работать как RAID 5E (производит развертывание), при этом операция развертывания не сопряжена с дополнительными рисками, отказ диска или ошибка в данной ситуации не будут фатальными.

RAID 5EE

Дальнейшее развитие RAID 5E, в котором отказались из за размещения резервной области в конце диска (самая медленная его часть), а разбили ее на блоки и также как и блоки четности начали чередовать между дисками. Основное преимущество такого подхода — это более быстрый процесс реконструкции, а так как в этом состоянии массив особо уязвим, то уменьшение времени ребилда — это повышение надежности всего массива.

RAID-info-011.png

Кроме того, такой подход позволяет выровнять нагрузку по дискам, что должно положительно сказываться на надежности. Ограничения остались те же — один раздел на один массив.

Также ни RAID 5E, ни RAID 5EE не лишились недостатка простого RAID 5 — на современных объемах массивов вероятность успешного ребилда такого массива очень невелика.

RAID 6

В отличие от RAID 5 этот массив использует две контрольные суммы и два диска четности, поэтому для него понадобятся 4 диска, при этом допускается выход из строя двух из них. Также, как и у RAID 5 алгоритм позволяет использовать всего две контрольные суммы вне зависимости от ширины полосы и общий объем массива всегда будет равен объему всех дисков за вычетом двух. При отказе одного диска RAID 6 выдерживает отказ еще одного, либо ошибку чтения без фатальных последствий.

RAID-info-012.png

Казалось бы, вот он — новый компромисс, замена RAID 5 в современных условиях и т.д. и т.п., но за все надо платить. Одна операция записи на такой массив требует большего количества операций внутри массива: чтение данных, чтение четности 1, чтение четности 2, запись данных, запись четности 1, запись четности 2 — итого 6 операций, таким образом пенальти RAID 6 равен шести.

В общем, повысив надежность, данный массив существенно потерял в производительности настолько, что многие поставщики не рекомендуют его использование кроме как для хранения холодных данных.

И снова вернемся к мифам: RAID 6 это «круто»? Может быть, во всяком случае за свои данные можно не беспокоиться. А почему так медленно? Так это плата за надежность.

RAID 6E

По сути, тоже самое, что и RAID 5E. Резервный диск точно также распределяется в виде неразмеченного пространства в конце дисков, с теми же самыми ограничениями — один раздел на один массив. Ну и добавьте еще один диск в минимальное количество для массива, для RAID 5E это было 4, для RAID 6E — 5.

RAID 50 и RAID 60

Комбинированные массивы, аналогичные RAID 10, только вместо зеркала используется чередование нескольких массивов RAID 5 или RAID 6. Основная цель при создании таких массивов — более высокая производительность, надежность их в минимальном варианте соответствует надежности внутреннего массива, но в зависимости от ситуации может выдерживать отказ и большего количества дисков.

Заключение

Данная статья в первую очередь предназначена для исключения пробелов в знаниях и не претендует на какие-либо рекомендации. Тем не менее кое какие выводы можно сделать. RAID 5 в современных условиях применять не следует, скорее всего вы потеряете свои данные в любой нештатной ситуации.

RAID 10 остается наиболее производительным массивом, но имеет большие накладные расходы — 50%.

RAID 6 имеет наиболее разумное сочетание надежности и накладных расходов, но его производительность оставляет желать лучшего.

При этом мы оставили за кадром многие технологии, скажем RAID DP — реализацию RAID 6 от производителя систем хранения NetApp, которая предлагает все достоинства RAID 6 вкупе в высокой производительностью, на уровне RAID 0. Или RAID-Z — систем на основе ZFS, которые являются программными реализациями и для обзора которых потребуется отдельная статья.

Также мы надеемся, что данный материал поможет вам в осознанном выборе уровня RAID-массива согласно вашим требованиям.

Помогла статья? Поддержи автора и новые статьи будут выходить чаще:

Поддержи проект!

Или подпишись на наш Телеграм-канал: Подпишись на наш Telegram-канал

Записки IT специалиста

LVM-part1-000.pngСовременные системы хранения предъявляют повышенные требования к гибкости управления дисковым пространством и классических дисковых устройств с размещенными на них разделами становится недостаточно. Это привело к созданию многих высокоуровневых инструментов, одним из которых является Менеджер логических томов (Logical volume management) — LVM в Linux. Это простой и мощный инструмент, позволяющий управлять пространством хранения абстрагировавшись от физических устройств и в данной статье мы начнем знакомство с ним.

Что такое LVM и для чего он нужен

Давайте начнем с самого начала и посмотрим, как устроена классическая дисковая система, в ее основе лежат физические устройства хранения: жесткие диски, SSD, RAID-массивы и т.д. Каждое физическое устройство содержит логическую разметку — разделы. Каждый раздел может содержать либо файловую систему, либо вложенные разделы. В любом случае общая емкость разделов ограничена емкостью физического устройства. Ниже показана классическая схема такой разметки.

LVM-part1-001.png

Все это просто, понятно и хорошо работает ровно до тех пор, пока дискового пространства физического диска достаточно. Если же его станет не хватать, то возникнут первые проблемы. Самым простым решением будет добавить еще один физический диск и перенести на него какой-нибудь из разделов, скажем /home, но при этом на первом физическом диске останется свободная область, которую мы уже не сможем использовать для размещения файлов домашней директории.

Точнее сможем, если смонтируем этот раздел в какую-нибудь вложенную папку, скажем /home/video, но это не решает проблемы, а только добавляет неудобства. Вместо единого дискового пространства мы получаем набор разрозненных сегментов.

Также вы можете столкнуться с ситуацией, когда каждого диска в отдельности не хватает для размещения раздела, хотя их суммарной емкости будет достаточно. Можно, конечно, попробовать объединить их в RAID массив, но это резко снизит гибкость модернизации такой системы, просто так добавить еще один диск к емкости массива уже не получится.

Во всех этих случаях нам на помощь приходит LVM, которая вводит новые уровни абстракции и позволяет работать с логическими томами, не оглядываясь на реальную конфигурацию физических устройств. В LVM существует три уровня абстракции:

  • PV, Physical volume, физический том — это физический диск, либо раздел на диске, если мы не можем использовать его целиком.
  • VG, Volume group, группа томов — группа томов объединяет в себя физические тома и является следующим уровнем абстракции, представляя собой единое пространство хранения, которое может быть размечено на логические разделы. Эквивалентен обычному диску в классической системе.
  • LV, Logical volume, логический том — логический раздел в группе томов, аналогичен обычном разделу, представляет из себя блочное устройство и может содержать файловую систему.

LVM-part1-002.png

Если говорить упрощенно, то между физическими носителями и логическими разделами у нас появилась дополнительная прослойка в виде группы томов, которая объединяет пространства физических дисков в одно логическое, эквивалентное одному большому диску.

При этом объединять в группу томов мы можем совершенно разные диски, не испытывая ограничений ни по размеру, ни по скорости. При этом мы можем спокойно добавлять в группу томов новые физические устройства, удалять старые, изменять размеры и расположение логических томов и все это в онлайн-режиме.

LVM и RAID

Теперь о том, чем LVM не является. Как следует из названия, LVM — это менеджер логических томов, т.е. разметки верхнего уровня, максимально абстрагированной от физических устройств. RAID — это избыточный массив независимых дисков, задача которого — обеспечить избыточность и тем самым обеспечить защиту от отказа одного или нескольких физических дисков. О логической разметке RAID не имеет никакого представления, работая исключительно с физическими устройствами или разделами на них.

Можно ли с помощью LVM реализовать некоторые функции RAID? Можно, но в этом случае либо будут использоваться собственные решения, серьезно уступающие программному RAID Linux (mdraid), либо вызовы будут передаваться модулю md, т.е. тому же самому mdraid.

При этом достаточно сильно пострадает простота и прозрачность управления массивами, что может поставить вас в затруднительное (если не хуже) положение в нештатных ситуациях, особенно если вы не обладаете достаточным опытом работы с LVM.

Поэтому, в строгом соответствии с философией UNIX, мы считаем, что каждый должен выполнять свою задачу и делать это хорошо. Поэтому для создания избыточных дисковых массивов мы будем продолжать использовать программный RAID, а предоставляемые им md-устройства использовать в качестве физических томов LVM.

LVM-part1-003.pngЭкстенты и способы их отображения

Единицей организации дискового пространства в LVM является экстент — некоторая минимальная область данных, которая может быть организована в составе логического тома. Выделить объем менее одного экстента LVM не может. Размер экстента определяется группой томов и зависит от ее объема, минимальный размер экстента 4 МБ, впоследствии это значение остается постоянным для группы томов на всем протяжении ее существования.

Все входящие в группу томов физические тома разделяются на физические экстенты, логические тома в свою очередь содержат логические экстенты, размеры физических и логических экстентов равны.

При создании логического тома ему выделяется некоторый непрерывный диапазон экстентов, каждому логическому экстенту соответствует физический экстент одного из физических томов. При этом не обязательно все логические экстенты должны соответствовать экстентам одного физического тома либо идти подряд, одному логическому тому могут соответствовать различные наборы физических экстентов с различных физических томов.

Если снова упростить ситуацию, то LVM можно рассматривать как некую таблицу соответствия, в которой записано какой логический экстент относится к какому физическому. Таким образом мы можем иметь логический том, фактически располагающийся на нескольких физических томах, при этом система будет видеть его как одно непрерывное пространство.

Размещение логических экстентов на физических томах называют отображением и существуют разные алгоритмы для этого. Наиболее простым является линейное отображение, при котором логические экстенты последовательно отображаются на свободные физические. Если физических экстентов одного физического тома не хватает для отображения всех логических экстентов, то начинают использоваться экстенты следующего физического тома.

LVM-part1-004.png

Казалось бы, все понятно, но есть одна особенность. Давайте еще раз посмотрим на схему выше. У нас есть условный логический том содержащий 8 экстентов и два физических, по четыре экстента в каждом. При линейном отображении экстенты распределены между физическими томами последовательно и при заполнении логического тома на 75% мы получим полностью заполненный первый физический том и наполовину заполненный второй.

Чтение и запись при линейном отображении выполняются последовательно, со скоростью того физического диска, на котором расположен физический экстент. Если в составе группы томов используются диски с разной скоростью доступа, то скорость работы с логическим томом будет меняться, в зависимости от того, на какой диск отображен логический экстент.

Линейное отображение является наиболее простым и удобным в работе, так для расширения логического тома нам достаточно добавить в группу один или несколько физических томов, а затем добавить в логический том дополнительные экстенты, отобразив их на свободные физические экстенты новых дисков. Этого вопроса мы еще коснемся позднее.

Но есть одна серьезная проблема и связана она с SSD, во-первых, твердотельные диски не следует заполнять на 100%, так как это приводит к ухудшению работы сборщика мусора и деградации производительности. Во-вторых, при использовании в составе группы томов нескольких SSD мы получим неравномерную нагрузку на диски и, как следствие, повышенный износ некоторых из них.

Решить эту проблему можно при чередующемся способе отображения (stripe, «полосатое»). В этом случае логические экстенты отображаются между физическими томами в порядке чередования, количество полос чередования определяет количество физических томов, которые будут для этого использоваться. По понятным причинам количество полос не может превышать количество физических томов.

LVM-part1-005.png

Чередующееся отображение обеспечивает равномерную нагрузку и заполнение физических дисков, поэтому для твердотельных накопителей следует использовать именно его. Также нетрудно заметить, что такая схема чем-то похожа на RAID 0. Это действительно так и операции чтения-записи можно производить параллельно, достигая более высоких скоростей дисковых операций. По этой причине чередующееся отображение может быть использовано и вместе с HDD в целях повышения производительности тома. Чем больше число полос, тем выше производительность.

Однако данный способ накладывает свои ограничения, для расширения тома мы должны использовать количество дисков кратное числу полос. Кроме того, чередование будет производиться только внутри группы дисков, для лучшего понимания этого момента обратите внимание на схему:

LVM-part1-006.png

Мы расширили существующий логический том с 8 до 16 экстентов. При этом первые 8 экстентов как чередовались между первыми двумя физическими томами, так и продолжили чередоваться. А следующие 8 экстентов стали чередоваться между двумя добавленными физическими томами. Таким образом при заполнении логического тома сначала будут заполнены первые два физических диска, а только затем начнет заполняться вторая пара. Кроме того, если речь идет о твердотельниках, первая пара дополнительно будет испытывать повышенную нагрузку.

Фактически мы получили линейное отображение на две пары физических дисков. Поэтому расширять чередующиеся массивы на твердотельных накопителях не следует. Правильным решением будет создание нового тома с большим числом полос.

LVM-part1-007.png

Несомненным достоинством LVM является то, что при должном опыте и знаниях том можно расширить и с изменением числа полос полностью в онлайн-режиме, т.е. не останавливая работы хранилища.

Управление томами в LVM

Как мы уже говорили, LVM позволяет гибко управлять дисковым пространством без привязки к физическим накопителям, это позволяет добавлять, удалять или менять физические диски без перерыва в работе хранилища, разве что на время физической замены оборудования. Рассмотрим несколько примеров.

Начнем с наиболее распространенного сценария — расширения. Количество данных обычно только растет и свободного места начинает не хватать. В классической дисковой системе нам потребуется либо заменить текущий диск диском большего объема, либо перенести часть данных на другой раздел.

LVM-part1-008.png

LVM позволяет добавить один или несколько дисков меньшей емкости, расширив логический том за счет их пространства. Прежде всего нам следует добавить новые физические диски — физические тома по терминологии LVM — в группу томов. Таким образом у нас появятся дополнительные свободные физические экстенты. После мы просто добавим в логический том нужное количество экстентов, которые LVM отобразит на физические экстенты новых дисков, тем самым увеличив размер тома. Останется только увеличить размер файловой системы.

LVM-part1-009.png

Другой довольно распространенный сценарий — замена оборудования. При большом объеме хранящихся данных это может быть не простой задачей. Но LVM снова придет на помощь. Точно также добавляем новые физические тома в группу томов и запускаем специальную операцию по переносу физических экстентов с одного физического тома на другие. Единственное условие — группа томов должна содержать нужное количество свободных экстентов, количество и размер новых дисков роли не играют.

Перемещение может занять длительное время, но хранилище при этом остается доступным, разве что несколько снизится производительность. По окончанию переноса экстентов просто выводим нужный физический том из группы томов и удаляем из LVM, теперь его можно физически изъять из сервера в любое подходящее для этого время.

LVM-part1-010.png

Обратите внимание, что в отличие от дисковых утилит, которые работают на уровне разделов, LVM перемещает именно физические экстенты и изменяет сопоставление отображения для логических томов. Таким образом если на диске sda (по схеме) у нас находился корневой раздел и часть /home, то именно эти части и будут перенесены на новый диск, перемещать раздел полностью нет никакой необходимости, даже если перемещаемые экстенты отображены куда-нибудь в середину логического тома.

Данный материал является обзорным и предназначен для формирования общего понимания структуры LVM и принципов его работы. Поэтому мы сознательно оставили за кадром многие иные возможности LVM, такие как снимки или тонкие тома. В дальнейших материалах мы будем рассматривать практическую работу с LVM также от простого к сложному, потому как решаемые задачи не должны опережать имеющиеся навыки и знания, особенно в такой ответственной области как системы хранения.

Помогла статья? Поддержи автора и новые статьи будут выходить чаще:

Поддержи проект!

Или подпишись на наш Телеграм-канал: Подпишись на наш Telegram-канал

Записки IT специалиста

  • Автор: Уваров А.С.
  • 20.07.2019

softraid-uefi-windows-000.pngПрограммный RAID пользуется заслуженной популярностью, позволяя легко создавать отказоустойчивые дисковые конфигурации в недорогих системах, отличаясь простотой создания и управления. Но с переходом современных систем на UEFI появились некоторые особенности, касающиеся процесса загрузки, которые следует понимать и принимать во внимание. В противном случае отказоустойчивость может оказаться мнимой и при отказе одного из дисков вы просто не сможете загрузить систему.

Данная инструкция может кому-то показаться сложной, действительно, для создания программного RAID на UEFI-системах требуется довольно много подготовительных действий. Также определенное количество операций придется выполнить и при замене отказавшего диска, но это тема для отдельной статьи. В связи с этим встает вопрос выбора между программным RAID и встроенным в материнскую плату, т.н. fake-raid.

Если брать вопрос производительности, то сегодня он абсолютно неактуален, тем более что вся обработка данных так или иначе осуществляется силами CPU. Основным аргументов в пользу встроенного RAID служит простота его использования, но за это приходится платить совместимостью. Собранные таким образом массивы будут совместимы только со своим семейством контроллеров. К счастью, сейчас уже нет того зоопарка, который был еще лет 10 назад, но все равно, собранный на базе платформы Intel массив вы не запустите на AMD-системе.

Также вы можете столкнуться с тем, что несмотря на то, что массив собрался, система не может загрузиться, так как не имеет в своем составе драйверов для новой версии контроллера, это может быть актуально для старых ОС на новых аппаратных платформах. Кроме того, все операции по замене дисков, расширению и ресинхронизации массива вам придется делать в оффлайн режиме, загрузить систему с массива в состоянии обслуживания вы не сможете.

Программные массивы лишены этих недостатков, все что им требуется — это поддержка со стороны ОС. Операции обслуживания также можно выполнять без прерывания работы системы, естественно принимая во внимание тот факт, что производительность дисковой системы в это время будет снижена. Но есть и обратная сторона медали, динамические диски Windows имеют ряд неприятных особенностей, например, ограниченные возможности по управлению дисковым пространством и обслуживанию. Штатные инструменты имеют только базовые функции, а из коммерческого софта работу с данным типом дисков обычно поддерживают только дорогие корпоративные версии.

Также есть другая особенность, вытекающая из архитектуры программных RAID массивов, если некритически отказал тот жесткий диск, с которого осуществляется загрузка, то система не будет автоматически загружена со второго, исправного HDD, вы получите ошибку (или BSOD) и вам потребуется вручную изменить порядок загрузки для восстановления работы системы.

Но несмотря на определенные недостатки и ограничения, программный RAID на основе динамических дисков пока остается единственной возможностью обеспечить отказоустойчивость системы, не прибегая к аппаратным средствам.

Конфигурация разделов Windows-систем с UEFI

Прежде всего рассмотрим стандартную конфигурацию разделов, автоматически создаваемую Windows с UEFI, приведенный ниже пример соответствует последним версиям Windows 10 и Windows Server 2016/2019, у более ранних версий Windows разметка может несущественно отличаться.

softraid-uefi-windows-001.png

Windows RE — NTFS раздел со средой восстановления, в последних версиях Windows имеет размер в 500 МБ, при создании ему присваиваются специальные атрибуты, препятствующие назначению буквы диска и удалению раздела через консоль управления дисками. В тоже время данный раздел не является необходимым для работы системы, среда восстановления может находиться на системном диске и даже может отсутствовать. Вынос среды восстановления на отдельный раздел преследует две цели: возможность работы на зашифрованных системах и защита от некорректных действий пользователя.

EFI — раздел специального типа с файловой системой FAT32, который содержит загрузчик, вызываемый микропрограммой UEFI. Данный раздел должен находиться в основной таблице разделов и не может быть расположен на динамическом диске. В Windows он ошибочно называется зашифрованным, имеет критическое значение для нормальной работы системы. В современных Windows-системах имеет размер в 100 МБ.

MSR (Microsoft System Reserved) — служебный раздел с файловой системой NTFS, является обязательным для GPT-разметки, которая не позволяет использовать скрытые сектора диска, используется для служебных операций встроенного и стороннего ПО, например, при преобразовании диска в динамический. Является скрытым и не отображается в оснастке управление дисками. Его размер в современных системах — 16 МБ.

Windows — самый обычный раздел с системой, фактически под ним следует понимать любую пользовательскую разметку. Никаких особенностей он в себе не таит.

Производители ПК могут добавлять дополнительные разделы, например, с резервным образом системы для отката к заводским настройкам или собственными инструментами восстановления, чаще всего они имеют специальные GPT-атрибуты, как и у раздела Windows RE.

Подготовка к созданию программного RAID

Будем считать, что вы уже установили операционную систему на один из дисков, в нашем примере будет использоваться Windows Server 2019 установленный на виртуальной машине. Если мы откроем оснастку Управление дисками, то увидим примерно следующую картину:

softraid-uefi-windows-002.png

Первым идет раздел Windows RE, размером в 499 МБ, а за ним раздел EFI, который ошибочно именуется шифрованным. Но как мы говорили выше, данная оснастка не дает полного представления о структуре разметки, поэтому запустим утилиту командной строки diskpart и получим список разделов:

Первая команда запускает утилиту, вторая выбирает первый диск (диск 0) и третья выводит список разделов.

softraid-uefi-windows-003.png

Здесь присутствуют все существующие на диске разделы, включая MSR, размером в 16 МБ. Теперь нам нужно воспроизвести аналогичную разметку на втором жестком диске. Будем считать, что вы еще не вышли из утилиты diskpart, поэтому выберем второй жесткий диск (диск 1) и очистим его:

Внимание! Данная команда полностью удалит все данные с указанного диска. Убедитесь, что вы выбрали нужный диск и что он не содержит никаких данных!

Преобразуем диск в GPT:

При преобразовании на диске будет автоматически создан MSR раздел, нам он пока не нужен, поэтому удалим его командой:

После чего убедимся, что диск не содержит разделов.

softraid-uefi-windows-004.png

Теперь можно создавать разметку. Разделы должны идти в том же порядке и с тем же типом, что и на первом диске. Поэтому первым создадим раздел восстановления, он не является обязательным и не влияет на работу системы. В принципе его можно даже не форматировать, но во избежание каких-либо недоразумений в дальнейшем мы рекомендуем создать раздел с теми же атрибутами, что и оригинальный раздел восстановления.

На всякий случай явно выберем диск и создадим на нем раздел размером в 499 МБ, который отформатируем в NTFS:

Затем зададим ему нужные GPT-атрибуты:

Идентификатор de94bba4-06d1-4d40-a16a-bfd50179d6ac задает тип раздела как Windows RE, а атрибут 0x8000000000000001 препятствует назначению буквы диска и помечает раздел как обязательный для работы системы, во избежание его удаления из оснастки управления дисками.

Следующим шагом создадим раздел EFI:

Если все сделано правильно, то вы должны получить следующую схему разметки, которая будет полностью повторять (за исключением системного раздела) разметку первого диска.

softraid-uefi-windows-005.png

После чего систему обязательно следует перезагрузить.

Создание программного RAID

Прежде всего преобразуем диски в динамические, это можно сделать в оснастке Управление дисками:

softraid-uefi-windows-006.png

или утилитой diskpart:

Затем добавим зеркало к системному диску через графический интерфейс

softraid-uefi-windows-007.png

или с помощью diskpart:

После чего следует обязательно дождаться ресинхронизации данных, в зависимости от скорости и объема дисков это может занять некоторое время.

softraid-uefi-windows-008.png

Теперь при загрузке появится меню с выбором раздела, загрузиться можно с обоих, но не будем забывать, что загрузчик по-прежнему присутствует только на первом диске и при смене порядка загрузки в BIOS загрузиться со второго диска не удастся.

softraid-uefi-windows-009.pngНастройка загрузчика EFI и его копирование на второй раздел

Снова запустим утилиту diskpart и присвоим буквы EFI разделам на дисках, но перед этим уточним расположение нужного нам раздела:

softraid-uefi-windows-010.png

Как видим интересующий нас раздел имеет номер 2, выберем его и присвоим букву:

Повторим аналогичные манипуляции со вторым диском:

Выйдем из утилиты diskpart (команда exit) и перейдем в EFI раздел первого диска:

Для просмотра текущих точек загрузки выполните:

softraid-uefi-windows-011.png

Вывод команды покажет нам единственную запись диспетчера загрузки (на текущем EFI-разделе) и две записи загрузчика Windows, на каждом из зеркальных томов. Нам потребуется создать второй экземпляр диспетчера загрузки:

Из вывода данной команды нам потребуется идентификатор, скопируем его для использования в следующей команде.

softraid-uefi-windows-012.png

В фигурных скобках должен быть указан идентификатор, полученный на предыдущем шаге.

После чего экспортируем BCD-хранилище загрузчика:

И скопируем содержимое EFI-раздела на второй диск:

softraid-uefi-windows-013.png

Ошибка при копировании активного экземпляра BCD-хранилища — это нормально, собственно поэтому мы и сделали его экспорт, вместо того, чтобы просто скопировать. Затем переименуем копию хранилища на втором диске:

и удалим ее с первого:

Осталось удалить буквы дисков EFI-разделов, для этого снова запустим diskpart:

Теперь можно перезагрузить систему и в загрузочном меню BIOS выбрать Windows Boot Manager 2, затем Windows Server — вторичный плекс — это обеспечит использование EFI-загрузчика и системного раздела второго диска. Если вы все сделали правильно — загрузка будет удачной. Таким образом у нас будет полноценное зеркало системного раздела на динамических дисках в UEFI-системе.

Помогла статья? Поддержи автора и новые статьи будут выходить чаще:

Поддержи проект!

Или подпишись на наш Телеграм-канал: Подпишись на наш Telegram-канал

Сборка ПК

Итак, с комплектующими мы разобрались, приступаем к сборке.

Процессор

Начнём с установки процессора и оперативной памяти на материнскую плату.

Этот процесс не сложный, нужно лишь сориентироваться как его расположить в сокете. Если вы впервые собираете компьютер, не в коем случае не нужно пытаться его вдавить силой. Все это приведет к тому, что вы попросту погнете ножки или повредите процессор. При правильной установке он легко и без усилий сядет на свое место.

На самом процессоре есть обозначение в углу в виде треугольника и такое же обозначение есть и на материнской плате. Этот угол на процессоре и такой же угол сокета должны совпадать.

Также на самом процессоре есть небольшие вырезы и соответственно на сокете метки под них, обратите на это внимание.

Устанавливаем процессор и фиксируем его защелкой.

Установка кулера процессора

Следующий этап нанесение термопасты и установка кулера процессора. В моем случае термопаста уже нанесена на кулер, нужно лишь его установить.

Ставим его на свое место и поворачиваем защелки.

С кулером всегда идет в комплекте инструкция по его установке, так что достаточно ознакомиться с ней перед установкой, и вы установите его без проблем.

Теперь осталось подключить его к материнской плате. Для этого штекер, который идет от вентилятора нужно подключить в разъем, который обозначен как CPU_FAN. Его расположение зависит от материнской платы, но надпись всегда одна и та же.

Установка оперативной памяти

Далее, устанавливаем оперативную память и откладываем плату в сторону.

Для установки памяти оттягиваем защелки и ставим память в разъем.

Здесь нужно быть внимательным так память устанавливается одной определенной стороной. Если она не садиться на свое место, то просто переверните ее. Не нужно при установке памяти прилагать больших усилий и вдавливать ее, если она не становиться на свое место.

На материнской плате есть обозначение и их нумерация. Если у вас две планки, ставим в разъем 1, 2. Если одна в первый.

Откладываем плату и приступаем к корпусу. Сейчас мы установим блок питания и сделаем небольшой менеджмент кабелей.

Корпус и блок питания

Устанавливаем блок питания на свое место и прикручиваем. Крепёжные болтики идут в комплекте с блоком.

Кабеля укладываем со стороны задней боковой крышки. И просовываем их в отверстия: питание материнской платы в верхнее, а все остальные в нижнее.

В коробке от материнской платы найдите заглушку. И установите ее на заднюю панель в соответствии с расположением самой платы. Посадив ее в окно с внутренней стороны корпуса до щелчка.

Установка материнской платы

Далее примеряем материнскую плату внутри корпуса и определяем куда нужно будет вкрутить посадочные места. Как правило они идут в комплекте с корпусом.

Вкручиваем в соответствии с отверстиями на материнской плате. И затем снова примеряем плату совпали ли они. Устанавливаем ее в корпус и прикручиваем соответствующими болтиками из набора корпуса.

Подключение блока питания к материнской плате

Следующим этапом будет подключение блока питания к материнской плате.

Подключаем питание процессора, это восьмипиновый шнур.

И питание материнской платы — самый крупный шнур.

Подключение материнской платы к корпусу

Следующим этапом будет подключение передней панели корпуса к материнской плате. На данном этапе у вас могут возникнуть сложности если вы это делаете впервые. Особенно при подключении передних индикаторов корпуса. Но не бойтесь, все штекеры уже обозначены и все разъёмы на материнской плате соответственно тоже указаны.

Штекер AUDIO подключаем соответственно в разъём AUDIO, сложного в этом ничего нет. Стоит лишь обратить внимание как расположены коннекторы, потому как при неправильном подключении штекер попросту не сядет на свое место.

Далее штекер USB подключаем в разъём USB1 или 2 это не имеет никакого значения.

Подключаем кнопку Power, Reset и лед индикаторы. В инструкции к материнской плате должны быть детально указаны их расположение. Полярность как правило обозначена на материнской плате и штекерах.

А также кабель USB 3.0, здесь тоже все подписано.

Подключение жестких дисков

Теперь пришел черед накопителей. Для нашего RAID мы используем 6 дисков WD на 320 GB каждый. Устанавливаем их, закрепляем и подключаем питание, соединяем SATA кабелем с материнской платой. Так как разъёмов питания для подключения всех дисков не хватает будем использовать соответствующие переходники.

Подключение видеокарты

Ну и осталось лишь установить видеокарту.

Примеряем ее в корпусе и выламываем соответствующее окно. Затем просто устанавливаем карту в слот PCI Express и крепим ее болтами. После установки подключаем кабель питания видеокарты.

На этом сборка компьютера закончена.

FAQ по практической реализации RAID

Если Вы заинтересовались этой статьей, то Вы, по-видимому, столкнулись или предполагаете вскоре столкнуться с одной из ниже перечисленных проблем на Вашем компьютере:

Что такое «RAID»?

В вышеупомянутой статье было определено пять типов (уровней) дисковых массивов: RAID-1, RAID-2, . RAID-5. Каждый тип обеспечивал устойчивость на отказ, а также различные преимущества по сравнению с одиночным дисководом. Наряду с этими пятью типами популярность приобрел также дисковый массив RAID-0, НЕ обладающий избыточностью.

Какие существуют уровни RAID и какой из них выбрать?

Дисковод 0 Дисковод 1 Дисковод 2
Блок 0
Блок 3
.
Блок N
Блок 1
Блок 4
.
Блок N+1
Блок 2
Блок 5
.
Блок N+2

Так как RAID-0 не обладает избыточностью, авария одного дисковода приводит к аварии всего массива. С другой стороны RAID-0 обеспечивает максимальную скорость обмена и эффективность использования объема дисководов. Поскольку для RAID-0 не требуются сложные математические или логические вычисления, затраты на его реализацию минимальны.

Область применения: аудио- и видео приложения требующие высокой скорости непрерывной передачи данных, которую не может обеспечить одиночный дисковод. Например, исследования, проведенные фирмой Mylex, с целью определить оптимальную конфигурацию дисковой системы для станции нелинейного видео монтажа показывают, что, по сравнению с одним дисководом, массив RAID-0 из двух дисководов дает прирост скорости записи/чтения на 96%, из трех дисководов — на 143% (по данным теста Miro VIDEO EXPERT Benchmark).
Минимальное количество дисководов в массиве «RAID-0» — 2шт.

RAID-1. Более известен как «Mirroring» («Зеркалирование») — это пара дисководов, содержащих одинаковую информацию и составляющих один логический диск:

Дисковод 0 Дисковод 1
Блок 0
Блок 1
.
Блок N
Блок 0
Блок 1
.
Блок N

Запись производится на оба дисковода в каждой паре. Тем не менее, дисководы, входящие в пару, могут совершать одновременные операции чтения. Таким образом «зеркалирование» может удваивать скорость чтения, но скорость записи остается неизменной. RAID-1 обладает 100% избыточностью и авария одного дисковода не приводит к аварии всего массива — контроллер просто переключает операции чтения/записи на оставшийся дисковод.
RAID-1 обеспечивает наивысшую скорость работы среди всех типов избыточных массивов (RAID-1 — RAID-5), особенно в многопользовательском окружении, но наихудшее использование дискового пространства. Поскольку для RAID-1 не требуются сложные математические или логические вычисления, затраты на его реализацию минимальны.
Минимальное количество дисководов в массиве «RAID-1» — 2шт.
Для увеличения скорости записи и обеспечения надежности хранения данных несколько массивов RAID-1 можно, в свою очередь, объединить в RAID-0. Такая конфигурация называется «двухуровневый» RAID или RAID-10 (RAID 0+1):

Дисковод 0 Дисковод 1 Дисковод 2 Дисковод 3
Блок 0
Блок 2
.
Блок N
Блок 0
Блок 2
.
Блок N
Блок 1
Блок 3
.
Блок N+1
Блок 1
Блок 3
.
Блок N+1

Минимальное количество дисководов в массиве «RAID 0+1» — 4шт.
Область применения: дешевые массивы, в которых главное — надежность хранения данных.

RAID-2. Распределяет данные по страйпам размером в сектор по группе дисководов. Некоторые дисководы выделяются для хранения ECC (код коррекции ошибок). Так как большинство дисководов по умолчанию хранят коды с ECC для каждого сектора, RAID-2 не дает особых преимуществ по сравнению с RAID-3 и, поэтому, практически не применяется.

RAID-3. Как и в случае с RAID-2 данные распределяются по страйпам размером в один сектор, а один из дисководов массива отводится для хранения информации о четности:

Дисковод 0 Дисковод 1 Дисковод 2
Блок 0
Блок 2
.
Блок N
Блок 1
Блок 3
.
Блок N+1
Контрольная сумма блока 0 и 1
Контрольная сумма блока 2 и 3
.
Контрольная сумма блока N и N+1

RAID-3 полагается на коды с ECC, хранящиеся в каждом секторе для обнаружения ошибок. В случае отказа одного из дисководов восстановление хранившейся на нем информации возможно с помощью вычисления исключающего ИЛИ (XOR) по информации на оставшихся дисководах. Каждая запись обычно распределена по всем дисководам и поэтому этот тип массива хорош для работы в приложениях с интенсивным обменом с дисковой подсистемой. Так как каждая операция ввода-вывода обращается ко всем дисководам массива, RAID-3 не может одновременно выполнять несколько операций. Поэтому RAID-3 хорош для однопользовательского однозадачного окружения с длинными записями. Для работы с короткими записями требуется синхронизация вращения дисководов, так как иначе неизбежно уменьшение скорости обмена. Применяется редко, т.к. проигрывает RAID-5 по использованию дискового пространства. Реализация требует значительных затрат.
Минимальное количество дисководов в массиве «RAID-3» — 3шт.

RAID-4. RAID-4 идентичен RAID-3 за исключением того, что размер страйпов много больше одного сектора. В этом случае чтение осуществляется с одного дисковода (не считая дисковода, хранящего информацию о четности), поэтому возможно одновременное выполнение нескольких операций чтения. Тем не менее, так как каждая операция записи должна обновить содержимое дисковода четности, одновременное выполнение нескольких операций записи невозможно. Этот тип массива не имеет заметных преимуществ перед массивом типа RAID-5.
RAID-5. Этот тип массива иногда называется «массив с вращающейся четностью». Данный тип массива успешно преодолевает присущий RAID-4 недостаток — невозможность одновременного выполнения нескольких операций записи. В этом массиве, как и в RAID-4, используются страйпы большого размера, но, в отличие от RAID-4, информация о четности хранится не на одном дисководе, а на всех дисководах по очереди:

Дисковод 0 Дисковод 1 Дисковод 2
Блок 0
Блок 2
.
Контрольная сумма блока N и N+1
Блок 1
Контрольная сумма блока 3 и 4
.
Блок N+1
Контрольная сумма блока 1 и 2
Блок 3
.
Блок N

Операции записи обращаются к одному дисководу с данными и к другому дисководу с информацией о четности. Так как информация о четности для разных страйпов хранится на разных дисководах выполнение нескольких одновременных операций записи невозможно только в тех редких случаях, когда либо страйпы с данными, либо страйпы с информацией о четности находятся на одном и том же дисководе. Чем больше дисководов в массиве, тем реже совпадает местоположение страйпов информации и четности.
Область применения: надежные массивы большого объема. Реализация требует значительных затрат.
Минимальное количество дисководов в массиве «RAID-5» — 3шт.

RAID-1 или RAID-5?
RAID-5 по сравнению с RAID-1 более экономно использует дисковое пространство, так как в нем для избыточности хранится не «копия» информации, а контрольное число. В результате в RAID-5 можно объединить любое количество дисководов, из которых только один будет содержать избыточную информацию.
Но более высокая эффективность использования дискового пространства достигается за счет более низкой скорости обмена информацией. Во время записи информации в RAID-5 надо каждый раз обновлять информацию о четности. Для этого надо определить, какие именно биты четности изменились. Сначала считывается подлежащая обновлению старая информация. Затем эта информация перемножается по XOR с новой информацией. Результат этой операции — битовая маска, в которой каждый бит =1 означает, что в информации о четности в соответствующей позиции надо заменить значение. Затем обновленная информация о четности записывается на соответствующее место. Следовательно, на каждое требование программы записать информацию, RAID-5 совершает два чтения, две записи и две операции XOR.
За то, что более эффективно используется дисковое пространство (вместо копии данных хранится блок четности) приходится платить: на генерацию и запись информации о четности уходит добавочное время. Это означает, что скорость записи на RAID-5 ниже, чем на RAID-1 в соотношении 3:5 или даже 1:3 (т.е. скорость записи на RAID-5 составляет от 3/5 до 1/3 от скорости записи RAID-1). Из-за этого RAID-5 бессмысленно создавать в программном варианте. Их также нельзя рекомендовать в тех случаях, когда именно скорость записи имеет решающее значение.

Какой выбрать способ реализации RAID — программный или аппаратный?

Как выбрать модель RAID-контроллера?

Ultra (Ultra Wide) SCSI контроллер фирмы Mylex KT930RF (KT950RF).
Внешне данный контроллер ни чем не отличается от обыкновенного SCSI-контроллера. Вся «специализация» находится в BIOS, который как бы разделен на две части — «Конфигурация SCSI» / «Конфигурация RAID». Несмотря на невысокую стоимость (менее $200) данный контроллер обладает неплохим набором функций:

IDE контроллер фирмы Promise FastTRAK
Данный контроллер содержит два независимых IDE канала. Добавив второй контроллер FastTrak можно получить четыре независимо работающих канала. BIOS, установленный на контроллере, полностью берет на себя все функции прерывания INT13. В частности, он позволяет организовать загрузку с любого из дисковых массивов, подключенных через FastTrak. BIOS, установленный на контроллере, также поддерживает все функции Extended INT13, в том числе и поддержку дисков объемом более 8.4 Гбайта. Стоимость контроллера менее $150. Контроллер обладает следующими характеристиками:

Для повышения производительности в FastTRAK используются методы, характерные для SCSI-контроллеров: конвейерный поиск, балансировка загрузки дисководов, буферизация команд интерфейса, оптимизация для различных приложений.

Выводы: Контроллеры дисковода с функциями RAID вряд ли можно рекомендовать в качестве RAID-контроллера для сервера даже среднего уровня (отсутствует кэш, не поддерживается RAID-3 или -5). В то же время, это прекрасный выбор для серверов начального уровня, графических станций и систем нелинейного видео монтажа, для которых основным параметром является соотношение цена/производительность.

2. RAID-контоллеры, работающие в паре с уже имеющимся дисковым контроллером.
Данные RAID-контроллеры рассчитаны на работу с системными платами, на которых интегрирован дисковый контроллер. Таким образом, на плате контроллера находиться только «логическая» часть RAID-контроллера, а функции обмена данными с дисководами возложена на дисковый контроллер интегрированный на системной плате. Такие «усеченные» контроллеры, как правило, поддерживают многие функции полнофункциональных RAID-контроллеров, и, в тоже время, стоят намного дешевле. Однако данное решение не лишено недостатков. Главное из них — каждый «усеченный» контроллер жестко «привязан» к конкретному типу микросхем дискового контроллера и, следовательно, будет работать только на тех системных платах, на которых интегрирована такая микросхема.

Ultra2 SCSI контроллер фирмы Mylex AcceleRAID 150, AcceleRAID 200, AcceleRAID 250
Ultra2 SCSI контроллер фирмы AMI MegaRAID® Express 762


Mylex AcceleRAID 150

Mylex AcceleRAID 200

Mylex AcceleRAID 250

AMI MegaRAID® Express 762

Основные характеристики RAID-контоллеров:

Модель/параметр Mylex AcceleRAID 150 Mylex AcceleRAID 200 Mylex AcceleRAID 250 AMI MegaRAID® Express 762
RISC процессор i960RP 33MHz i960RD 66MHz i960RD 66MHz i960RP 33MHz
Кэш 4MB EDO 4—64MB ECC EDO JEDEC SIMM 4—64MB ECC EDO JEDEC SIMM 4—128MB FPM parity SIMM
Поддерживаемые уровни RAID 0, 1, 0+1, 3, 5, 10, 30, 50, JBOD 0, 1 , 0+1, 3, 5, 10, 30, 50& JBOD 0, 1 , 0+1, 3, 5, 10, 30, 50& JBOD 0, 1, 3, 5, 10, 30 & 50
Тип SCSI канала на контроллере Ultra2 SCSI (LVD) Нет Ultra2 SCSI (LVD) Нет
Тип SCSI канала на системной плате UltraWide-, Ultra2 SCSI (LVD) UltraWide-, Ultra2 SCSI (LVD) UltraWide-, Ultra2 SCSI (LVD) UltraWide-, Ultra2 SCSI (LVD)
Кластеризация RAID-контоллеров Нет Нет Да (NT only) Нет
Автоматическое определение неисправных дисков Да Да Да Да
Поддержка Hot swapping Да Да Да Да
Поддержка Hot spare Да Да Да Да
Программа конфигурирования In BIOS In BIOS In BIOS Power Console Plus
Программа управления Global Array Manager Global Array Manager Global Array Manager Power Console Plus
Поддерживаемые системные платы На базе Symbios (53C876, 53C895, 53C896 и т.д.), например Intel N440BX, T440BX, NA440BX и NC440BX На базе Symbios (53C876, 53C895, 53C896 и т.д.), например Intel N440BX, T440BX, NA440BX и NC440BX На базе Symbios (53C876, 53C895, 53C896 и т.д.), например Intel N440BX, T440BX, NA440BX, NC440BX, SC450NX На базе Symbios, например Intel N440BX, SC450NX, или AMI MegaRUM
Драйвера для ОС Windows NT 4.0,NetWare 3.x/4.x/5.x and SMP, SCO UnixWare 2.1, 7.0, UNIX OSR 5.x,Linux 2.2 Windows NT server 4.0, NetWare 4.x/5.x and SMP, SCO UnixWare 2.1, 7.0, UNIX OSR 5.x Windows NT server 4.0, NetWare 4.x/5.x and SMP, SCO UnixWare 2.1, 7.0, UNIX OSR 5.x Windows NT 3.x/4.0, NetWare 3.1x/4.x, SCO UNIX SVR 4.2/ODT 3.0/ 5.0, OS/2 2.x/ Warp 3.x/4, UnixWare SMP 2.0/2.1, SCO OpenServer 5.0x

Объединение RAID-контоллера с дисковым контроллером через шину PCI значительно нагружает последнюю, тормозя другие операции ввода-вывода. Для повышения общей производительности системы на некоторых системных платах введен дополнительный интерфейс, названный PCI-RAIDport и позволяющий RAID-контоллеру напрямую обмениваться данными с интегрированным на системной плате SCSI-контроллером.

Для такого интерфейса требуется специализированный RAID-контоллер, например Ultra2 SCSI контроллер ARO1130U2 фирмы Adaptec. Основные характеристики:

Выводы: RAID-контоллеры, работающие в паре с уже имеющимся дисковым контроллером, имеют стоимость не намного выше стоимости качественных Ultra2 SCSI дисковых контроллеров и, в тоже время, по характеристикам почти не уступают полнофункциональным RAID-контоллерам (отсутствует батарейный модуль для защиты кэша и не предусмотрена кластеризация RAID-контроллеров). Недостатком можно считать то, что эти контроллеры «заточены» для работы с определенными типами системных плат, что сужает область их применения. Следует отметить, что контроллеры Mylex AcceleRAID 150 и Mylex AcceleRAID 250 имеют свой Ultra2 SCSI дисковый контроллер, что позволяет использовать их как самостоятельные одноканальные Ultra2 SCSI RAID-контоллеры с любой PCI системной платой.

3. Полнофункциональные RAID-контоллеры.
Данные RAID-контроллеры содержат «на борту» все необходимое для работы с высокопроизводительными дисковыми системами: BIOS, позволяющий независимо от используемой ОС конфигурировать и форматировать RAID любого уровня; RISC-процессор для быстрого вычисления контрольных сумм и коррекции ошибок «на лету»;
кэш-память для хранения часто используемых данных; до 3-х канальных контроллеров, работающих независимо, каждый из которых поддерживает до 15 дисководов. Такие RAID-контоллеры выпускаются в виде платы для установки в PCI шину. Наиболее известные модели:

Ultra Wide SCSI контроллер фирмы Mylex DAC960PJ/DAC960PG

Ultra2 SCSI контроллер фирмы Mylex eXtremeRAID 1100

Ultra Wide SCSI контроллер фирмы AMI MegaRAID® Ultra (Series 428)

Ultra2 SCSI контроллер фирмы AMI MegaRAID® Ultra2 LVD (Series 438)


Mylex DAC960PJ/DAC960PG

Mylex eXtremeRAID 1100

AMI MegaRAID® Ultra (Series 428)

AMI MegaRAID® Ultra2 LVD (Series 438)

Основные характеристики RAID-контоллеров:

Модель/параметр Mylex DAC960PJ/DAC960PG Mylex eXtremeRAID 1100 AMI MegaRAIDR Ultra (Series 428) AMI MegaRAIDR Ultra2 LVD (Series 438)
RISC процессор i960RD 66MHz / i960RP 33MHz StrongArm SA 110 233MHz i960 CA 33 Mhz i960RD 66MHz
Кэш 4-128MB ECC EDO JEDEC SIMM 32MB/64MB на плате 2*4-64MB FPM parity SIMM 4-64MB ECC EDO JEDEC SIMM
Разрядность PCI шины 32 bit 64 bit 32 bit 32 bit
Поддерживаемые уровни RAID 0, 1, 0+1, 3, 5, 10, 30, 50, JBOD 0, 1 , 0+1, 3, 5, 10, 30, 50& JBOD 0, 1, 3, 5, 10, 30 & 50 0, 1, 3, 5, 10, 30 & 50
Кол-во SCSI каналов 1-3 3 1-3 1-3
Тип SCSI канала на контроллере UltraWide SCSI Ultra2 SCSI (LVD) UltraWide SCSI Ultra2 SCSI (LVD)
Кластеризация RAID-контоллеров Нет Да (NT only) Optional Firmware with Multi-Initiator Support Да
Автоматическое определение неисправных дисков Да Да Да Да
Поддержка Hot swapping Да Да Да Да
Поддержка Hot spare Да Да Да Да
Батарейный модуль для защиты кэша Поставляется отдельно Поставляется отдельно Да
Программа конфигурирования In BIOS In BIOS In BIOS In BIOS
Программа управления Global Array Manager Global Array Manager Power Console Plus Power Console Plus
MTBF, часов 200,000 200,000 ? ?
Драйвера для ОС Windows NT server 3.51/ 4.0, NetWare 3.x/4.x/5.x and SMP, SCO UnixWare 2.x, UNIX OSR 5.x Windows NT server 3.51/ 4.0, NetWare 3.x/4.x/5.x and SMP, SCO UnixWare 2.1/7.0, UNIX OSR 5.x Windows NT 3.51/4.0, NetWare 3.1x/4.x, SCO UNIX SVR 4.2/ODT 3.0/ 5.0, OS/2 2.x/ Warp 3.x/4, UnixWare SMP 2.x/7.0, Solaris 2.6 Windows NT 3.x/4.0, NetWare 3.1x/4.x/5.0, SCO UNIX SVR 2.x/4.2/ODT 3.0/ 5.0, UnixWare&SMP 2.x/7.0, Linux Redhat, Solaris 2.6/7, OS/2 Warp

а) Одноканальный Ultra2 SCSI PCI RAID-контоллер фирмы American Megatrends (AMI) MegaRAIDR Express Plus (Series 466). Основные характеристики:
— Поддерживаемые уровни RAID: 0, 1 , 0+1, 3, 5, 10, 30, 50& JBOD
— RISC сопроцессор Intel i960RRP 32 bit 33 MHz
— Кэш 4-128MB, один 72 Pin FPM parity SIMM
— AMIBIOSR RAID Firmware на Flash EPROM
— Хранение конфигурации RAID в энергонезависимой памяти
— Звуковая сигнализация аварийных состояний
— Поддержка Hot Spare для замены «на лету» вышедшего из строя дисковода
— Поддержка Hot Swap для подключения новых дисководов без выключения системы
— Программа управления MegaRAIDR Management
— Драйвера для Windows NT3.5x/4.0, NetWare3.1x/4.x/5.0, SCO UNIX 2.x SVR 4.2/ODTR 3.0/5.0, Linux Redhat, Solaris 2.6/7, OS/2 Warp

Выводы: полнофункциональные RAID-контроллеры отвечают самым высоким требованиям, как по производительности, так и по надежности и их можно рекомендовать для серверов среднего и верхнего уровней. Пользователям следует обратить внимание на повышенные требования к качеству модулей памяти, используемых для кэша, особенно в контроллерах с тактовой частотой RISC процессора более 33 MHz. Рекомендуем, во избежание проблем, приобретать контроллеры с уже установленными модулями памяти.

4. Внешние RAID-контроллеры.

Наличие двунаправленных каналов и внешнее исполнение позволяет создавать так называемые кластерные дисковые системы с недостижимой ранее надежностью. В таких системах несколько серверов соединены одновременно с несколькими RAID-контроллерами, которые, в свою очередь, управляют несколькими общими дисковыми массивами, причем отказ любого компонента такой системы (сервера, RAID-контроллера, диска, блока питания, кабеля и т.д.) не ведет к отказу всей системы, а только несколько снижает ее производительность.

Наиболее известные модели внешних RAID-контроллеров:

Ultra2-to-Ultra2 SCSI RAID-контоллер фирмы Infortrend IFT-3101U2G

Ultra2-to-Ultra2 SCSI RAID-контоллер фирмы Infortrend IFT-3102U2G

Fibre to Ultra2 SCSI RAID-контоллер фирмы AMI MegaRAIDR Explorer 500

Fibre to Ultra2 SCSI RAID-контоллер фирмы Mylex DACFL


Infortrend IFT-3101U2G

Infortrend IFT-3102U2G

AMI MegaRAIDR Explorer 500

Mylex DACFL

Модель/параметр Infortrend IFT-3101U2G Infortrend IFT-3102U2G AMI MegaRAIDR Explorer 500 Mylex DACFL
Формат 3.5″ full-height 5.25″, half-height 3.5″ full-height 5.25″, half-height
RISC сопроцессор 64-bit RISC 100 MHz Dual i960RD 66MHz
Кэш 8-128MB ECC EDO JEDEC SIMM 8-128MB ECC EDO JEDEC SIMM 16-128MB ECC SDRAM DIMM 2*4-128MB
Поддерживаемые уровни RAID 0, 1, 0+1, 3, 5, 10, 30, 50, JBOD 0, 1 , 0+1, 3, 5, 10, 30, 50& JBOD 0, 1, 3, 5, 10, 30 & 50 0, 1, 0+1, 3, 5, 10, 30, 50, JBOD
Кол-во и тип SCSI каналов на основном модуле 2 Ultra2 SCSI 4 Ultra2 SCSI 2 Ultra2 SCSI (to Connect to the Drives)2 Fibre (to Connect to the Host) 4 Ultra2 SCSI (to Connect to the Drives)2 Fibre (to Connect to the Host)
Кол-во и тип SCSI каналов на дочерних модулях 2 Ultra2 SCSI (IFT-9152)2 Ultra Wide, Diff. (IFT-9152D)2 Fibre (IFT-9152F) 4 Ultra2 SCSI (IFT-9174) 2 Ultra2 SCSI + 2 Ultra Wide, Diff. (IFT-9174U2D)2 Ultra2 SCSI + 2 Fibre (IFT-9174U2F) . .
Кластеризация RAID-контоллеров Да Да . Windows NT and UNIX
Автоматическое определение неисправных дисков Да Да Да Да
Поддержка Hot swapping Да Да Да Да
Поддержка Hot spare Да Да Да Да
Батарейный модуль для защиты кэша Нет IFT-9070 + IFT-9010 (Поставляется отдельно) Да Да
Способы конфигурирования и управления С лицевой панели, с эмулятора терминала через RS-232, с сервера, с рабочей станции через сеть С лицевой панели, с эмулятора терминала через RS-232, с сервера, с рабочей станции через сеть С лицевой панели, с эмулятора терминала через RS-232, с сервера, с рабочей станции через сеть Global Array Manager
MTBF, часов 200,000 200,000 ? 100,000
Драйвера для ОС OS independent OS independent OS independent OS independent

Выводы: внешние RAID-контроллеры обеспечивают самый высокий уровень производительности и надежности из всех типов RAID-контроллеров. Их можно рекомендовать для серверов среднего и верхнего уровней. Наличие FC-AL каналов позволяет разнести сервер и RAID-массив на значительное расстояние для защиты данных. Двунаправленные каналы позволяют объединять контроллеры и дисковые массивы в сверхнадежный кластер. Нечувствительность к операционным системам упрощает настройку и устраняет проблем — драйвера. Единственный недостаток — относительно высокая цена, однако, в ряде случаев, применение внешнего RAID-контроллера может дать экономию средств. Например, если в системе должны работать два сервера с RAID-массивами, то применение одного внешнего RAID-контроллера с общим дисковым массивом, подключенного к SCSI контроллерам каждого из серверов, позволит сэкономить стоимость внутреннего RAID-контроллера, рационально использовать дисковое пространство, упростить настройку и обслуживание.

Что, помимо контроллера, необходимо для практической реализации RAID?

Технология Hot Swap (замена «на лету») вышедшего из строя дисковода
Как уже отмечалось, основные задачи RAID-контроллеров — обеспечение высокой надежности хранения и быстрого доступа к данным, хранящимся в дисковом массиве, а также высокого уровня сервиса при обслуживании. Однако само по себе применение RAID-контроллера не исключает вероятность выхода из строя любого из дисководов, входящих в RAID-массив. В этом случае, если используется RAID с избыточностью (т.е. любого уровня кроме ), система может продолжать работать (благодаря избыточности данных RAID-контроллер сможет восстановить информацию, хранившуюся на дисководе). Но такой режим работы уже не является защищенным (сбой или выход из строя любого дисковода приведет к полной потере всех данных) и пользователь вынужден остановить систему, чтобы извлечь неисправный дисковод и заменить его на новый. Если даже кратковременная остановка системы или вмешательство в нее не желательно, то необходимо применить технологию Hot Swap, которая позволяет менять дисководы (и не только их) не выключая системы. Для этого необходимо:

Достоинства: время, в течение которого RAID-массив находится в незащищенном режиме сведено к минимуму.
Недостатки: требуется дополнительный дисковод (который большую часть времени не участвует в работе системы, но потребляет энергию и выделяет тепло); после Hot Spare в массиве больше не остается резервного дисковода и, чем раньше, тем лучше, потребуется остановить систему, что бы заменить неисправный дисковод. Выход очевиден: применять технологию Hot Spare вместе с Hot Swap!

Кабельная система
Когда к контроллеру подключается один или два дисковода, которые находятся внутри корпуса компьютера, у пользователя не возникает проблем с интерфейсным кабелем, который соединяет эти устройства. Другое дело, когда необходимо подключить к контроллеру большое количество дисководов и тем более, если они находятся в отдельном корпусе, удаленном от контроллера. Дело в том, что каждое устройство, подключаемое к общему интерфейсному кабелю, вносит значительную активную (омическую) и реактивную (емкостную) нагрузку. Да и сам интерфейсный кабель имеет распределенную емкость. Все это приводит к тому, что при некоторой длине интерфейсного кабеля и/или при некотором количестве подключенных к этому кабелю устройств (для RAID-массива это, как правило, дисководы) система дисковод-контроллер не сможет нормально функционировать на заданной скорости.

Проблема осложняется тем, что ошибка в расчете кабельной нагрузки (т.е. допустимой длины кабеля и допустимого количества подключенных устройств) может проявиться далеко не сразу. Например, в SCSI-интерфейсе используется технология повторения передачи команды или данных, если предыдущая передача прошла с ошибкой, а многие SCSI-контроллеры умеют автоматически снижать скорость передачи до уровня, при котором количество ошибок передачи будет на приемлемом уровне. Таким образом, внешне кажется, что все работает нормально, вот только быстродействие системы далеко от ожидаемой!

Таким образом, прежде чем проектировать дисковую систему, полезно обратиться к техническому описанию на контроллер, где, как правило, приведены зависимости между скоростью обмена, количеством устройств и допустимой длиной интерфейсного кабеля. Здесь полезно еще раз отметить неоспоримое преимущество интерфейса Ultra2 SCSI над Ultra Wide SCSI, которое благодаря технологии LVD позволяет не только в два раза увеличить скорость обмена, но и при этом как минимум в два раза увеличить допустимую длину интерфейсного кабеля.

Другая особенность кабельной системы — терминаторы — устройства, которые не дают образовываться отраженным от концов интерфейсного кабеля сигналам и обеспечивают необходимый ток в сигнальных проводах. Для осуществления первой функции терминаторы должны устанавливаться по обоим концам интерфейсного кабеля и только там. Некоторые пользователи в целях экономии используют терминаторы, которые имеются на некоторых дисководах. Для дисковых массивов, особенно использующих интерфейс Ultra2 SCSI, это недопустимо. Так как все дисководы в массиве должны быть одинаковыми и взаимозаменяемыми, лучшим решением будет отдельный терминатор, который монтируется на конце интерфейсного кабеля за последним дисководом (при этом, естественно, на всех дисководах терминация должна быть выключена). Для осуществления второй функции желательно, чтобы этот терминатор был активным, тогда необходимый уровень тока в линии будет постоянно поддерживаться на нужном уровне, независимо от количества подключенных дисководов.

Что делать, если требуемая длина интерфейсного кабеля превышает максимально допустимую при заданном количестве дисководов и скорости обмена? Возможны следующие варианты:

Источник питания
При проектировании дисковой системы необходимо обратить внимание на качество исполнения источника питания. Причины две:

Дополнительное охлаждение
Как уже отмечалось, компоненты RAID-массива (контроллер и особенно дисководы) потребляют и, соответственно, выделяют в виде тепла сотни Ватт. Это тепло необходимо постоянно отводить иначе перегрев может привести к отказу контроллера или дисководов. Для этой цели используются дополнительные вентиляторы, часть которых работает непосредственно на обдув дисководов, часть на вытяжку горячего воздуха, а часть на приток холодного.

Самые распространенные типы массивов

Обычно создают RAID1. Процесс его создания называется «зеркалированием». Преимущество RAID1 в том, что все файлы одного диска дублируются на другом, и оба винчестера являются точной (зеркальной) копией друг друга. После создания массива вероятность сохранности информации увеличивается в 2 раза. Если пользователь сохранил файл на одном диске, сразу же появится его копия на втором. В случае поломки одного винчестера данные останутся невредимыми на другом (на зеркале). Процент вероятности одновременной поломки двух HDD (SSD) минимальный.

screenshot_6

  1. JBOD. Последовательно соединяет накопители (разного объема) в том количестве, которое позволяет контроллер. Увеличивает вероятность сохранности данных, но не изменяет скорость и производительность. Не рекомендован для SSD, так как массив заполняется последовательно.
  2. RAID Требует минимум два накопителя одинакового объема и скорости. Информация разбивается и записывается параллельно на два носителя. При выходе из строя одного содержимое второго не подлежит прочтению. Преимущество: повышает скорость обработки большого объема информации.
  3. RAID Потребуется установка еще одного или двух накопителей. Объем отзеркаленного массива будет равняться объему основного диска. В случае сбоя данные сохранятся на втором накопителе. Чем большее подсоединено дисков, тем больше копий. Данные дублируются на каждый накопитель.
  4. RAID Потребуется минимум 3 накопителя. Информация будет дублироваться только на одном из них. Отзеркаленные данные можно использовать для восстановления. Увеличит производительность и скорость.
  5. RAID Требует минимум 4 накопителя. Допускается выход из строя двух из них без фатальных последствий. Надежен, но менее производителен.
  6. RAID Потребуется четное количество накопителей, но не меньше 4 штук. Совмещает качества RAID 1 и 0. Расходует много пространства под резерв, но использует половину от общего объема гигабайт. Увеличивает скорость. Приводит к проблемам только при поломке сразу двух дисков массива.

Установка системы

Итак, компьютер собран теперь нужно настроить наш RAID в BIOS и установить на него операционную систему.

Открываем BIOS, переходим в Продвинутый режим – Расширенные – Intel rapid storage technology.

Установка системы

Здесь выбираем Create RAID volume. Указываем имя, выбираем тип RAID и отмечаем диски для него. И внизу жмем Create volume – Сохранить изменения и выйти.

Установка системы

Установка системы

Установка системы

Установка системы

Теперь осталось установить операционную систему. Для этого потребуется загрузочная флешка или диск.

Здесь все стандартно, загружаемся с флешки, выбираем язык, вводим ключ, выбираем какую хотите установить редакцию системы, принимаем условия соглашения, и т.д. Всё стандартно.

Установка системы

На следующем этапе нужно выбрать диск. Как видите система видит один диск на 1192.4 ГБ. Это наш RAID диск. Отмечаем его и жмем далее.

Установка системы

Система установлена. Открыв мой компьютер здесь, мы увидим наш диск на 1.16 ТБ.

Установка системы

Открыв свойства, вы можете увидеть, что это и есть наш RAID 5 который мы создали.

Установка системы

Вот и всё. Надеюсь, моя статья помогла Вам разобраться в том, как создать RAID на домашнем компьютере.

Читайте в одной из предыдущих статей о том, что такое RAID массив и какие бывают типы RAID.

Dmytriy Zhura

Автор: Dmytriy Zhura, Технический писатель

Дмитрий Жура – автор и один из IT-инженеров компании Hetman Software. Имеет почти 10 летний опыт работы в IT-сфере: администрирование и настройка серверов, установка операционных систем и различного программного обеспечения, настройка сети, информационная безопасность, внедрения и консультация по использованию специализированного ПО. Является экспертом в области восстановления данных, файловых систем, устройств хранения данных и RAID массивов. Подробнее

Ссылка на основную публикацию