Рейд 0 массив на ноутбуке. Создание RAID массива

Создание массива RAID 0 на базе Intel RST

Компания Intel проделала большую работу с тем, чтобы сделать создание RAID-массивов в платформах на базе её процессоров простой и прозрачной процедурой. На сегодняшний день драйвер Intel RST полностью ограждает пользователей от необходимости общения с BIOS RAID-контроллера и единственное, что необходимо сделать, чтобы получить возможность объединения SSD в массивы, — это переключить интегрированный в набор системной логики SATA-контроллер в RAID-режим через BIOS материнской платы.

Правда, здесь может возникнуть неприятность с операционной системой, которая после смены режима SATA-контроллера откажется загружаться и будет вываливаться в «синий экран». Причина состоит в том, что если при установке операционной системы RAID-контроллер не был включён, то необходимый драйвер деактивируется в ядре OC. Но в Windows 8 и 8.1 Microsoft предусмотрела достаточно простую процедуру решения проблемы без необходимости новой переустановки операционной системы, выполняемую через «безопасный режим». До смены режима SATA-контроллера (если система уже не стартует, но настройки SATA-контроллера в BIOS следует вернуть к первоначальным) необходимо открыть командную строку с правами администратора и выполнить команду bcdedit /set {current} safeboot minimal. Это запрограммирует старт OC в безопасном режиме, и при следующей перезагрузке можно будет беспрепятственно изменить режим SATA-контроллера в BIOS. Когда после активации RAID система загрузится в безопасном режиме, тип загрузки следует вернуть к обычному варианту, для чего в командной строке нужно выполнить команду bcdedit /deletevalue {current} safeboot. Больше встречи с «синим экраном» при старте возникать не должно.

Обладателям же Windows 7 перед сменой режима контроллера придётся повозиться серьёзнее, в этом случае без правки реестра не обойтись. Подробная информация по решению этой проблемы имеется на сайте Microsoft .

После включения режима RAID и внедрения в систему необходимых драйверов можно переходить непосредственно к формированию массива. Он создаётся средствами драйвера Intel RST.

В процессе создания массива в первую очередь требуется указать его тип. В нашем случае это RAID 0.

Второй шаг: нужно выбрать те накопители, которые необходимо включить в массив.

При желании также можно изменить и размер блоков, на которые разбивается записываемая информация для её распределения по SSD в режиме чередования. Впрочем, предлагаемое по умолчанию значение 16 Кбайт вполне подходит для массивов RAID 0 из обладающих очень низким временем доступа твердотельных накопителей, так что менять в общем случае нет никакого смысла.

И всё — массив готов.

Обратите внимание, несмотря на то, что два твердотельных накопителя Kingston HyperX 3K объединены в RAID 0, с их S.M.A.R.T.-диагностикой нет никаких проблем.

⇡ Методика тестирования

Тестирование проводится в операционной системе Windows 8.1, корректно распознающей и обслуживающей современные твердотельные накопители. Это значит, что в процессе прохождения тестов, как и при обычном повседневном использовании SSD, команда TRIM поддерживается и активно задействуется. Измерение производительности выполняется с накопителями, находящимися в «использованном» состоянии, которое достигается их предварительным заполнением данными. Перед каждым тестом накопители очищаются и обслуживаются с помощью команды TRIM. Между отдельными тестами выдерживается 15-минутная пауза, отведённая для корректной отработки технологии сборки мусора. Во всех тестах, если не указано иное, используются рандомизированные несжимаемые данные.

Используемые приложения и тесты:

  • Iometer 1.1.0 RC1
  1. Измерение скорости последовательного чтения и записи данных блоками по 256 Кбайт (наиболее типичный размер блока при последовательных операциях в десктопных задачах). Оценка скорости выполняется в течение минуты, после чего вычисляется средний показатель.
  2. Измерение скорости случайного чтения и записи блоками размером 4 Кбайт (такой размер блока используется в подавляющем большинстве реальных операций). Тест проводится дважды — без очереди запросов и с очередью запросов глубиной 4 команды (типичной для десктопных приложений, активно работающих с разветвлённой файловой системой). Блоки данных выравниваются относительно страниц флеш-памяти накопителей. Оценка скорости выполняется в течение трёх минут, после чего вычисляется средний показатель.
  3. Установление зависимости скоростей случайного чтения и записи при работе накопителя с 4-килобайтными блоками от глубины очереди запросов (в пределах от одной до 32 команд). Блоки данных выравниваются относительно страниц флеш-памяти накопителей. Оценка скорости выполняется в течение трёх минут, после чего вычисляется средний показатель.
  4. Установление зависимости скоростей случайного чтения и записи при работе накопителя с блоками разного размера. Используются блоки объёмом от 512 байт до 256 Кбайт. Глубина очереди запросов в течение теста составляет 4 команды. Блоки данных выравниваются относительно страниц флеш-памяти накопителей. Оценка скорости выполняется в течение трёх минут, после чего вычисляется средний показатель.
  5. Измерение производительности при смешанной многопоточной нагрузке. На накопитель посылаются разноплановые команды, включающие как чтение, так и запись с различными размерами блоков. Процентное соотношение между разнородными запросами приближено к реальной десктопной нагрузке (75 % — операции чтения, 25 % — запись; 75 % — случайные запросы, 25 % — последовательные; 55 % — блоки размером 4 Кбайт, 25 % — 64 Кбайт и 20 % — 128 Кбайт). Тестовые запросы генерируются четырьмя параллельными потоками. Блоки данных выравниваются относительно страниц флеш-памяти накопителей. Оценка скорости производится в течение трёх минут, после чего вычисляется средний показатель.
  • CrystalDiskMark 3.0.3

Синтетический тест, выдающий типовые показатели производительности твердотельных накопителей, измеренные на 1-гигабайтной области диска «поверх» файловой системы. Из всего набора параметров, которые можно оценить с помощью этой утилиты, мы обращаем внимание на скорость последовательного чтения и записи, а также на производительность произвольных чтения и записи 4-килобайтными блоками без очереди запросов и с очередью глубиной 32 команды.

  • PCMark 8 2.0

Тест, основанный на эмулировании реальной дисковой нагрузки, которая характерна для различных популярных приложений. На тестируемом накопителе создаётся единственный раздел в файловой системе NTFS на весь доступный объем, и в PCMark 8 проводится тест Secondary Storage. В качестве результатов теста учитывается как итоговая производительность, так и скорость выполнения отдельных тестовых трасс, сформированных различными приложениями.

⇡ Тестовый стенд

В качестве тестовой платформы используется компьютер с материнской платой Gigabyte GA-Z87X-UD3H, процессором Core i3-4340 и 4 Гбайт RAM DDR3-1600 МГц. Диски подключаются к контроллеру SATA 6 Гбит/с, встроенному в чипсет материнской платы, и работают в режиме AHCI или RAID. Используется драйвер Intel Rapid Storage Technology (RST) 12.9.0.1001 и операционная система Windows 8.1 Enterprise x64.

Объем и скорость передачи данных в бенчмарках указываются в бинарных единицах (1 Кбайт = 1024 байт).

⇡ Участники тестирования

  • Kingston HyperX 3K 240 Гбайт (SH103S3/240G, прошивка 5.07);
  • Kingston HyperX 3K 480 Гбайт (SH103S3/480G, прошивка 5.07);
  • Массив RAID 0 из двух накопителей Kingston HyperX 3K 240 Гбайт (SH103S3/240G, прошивка 5.07).

⇡ Производительность

Последовательные операции чтения и записи, IOMeter

Последовательные дисковые операции — это именно та среда, где лучше всего видно масштабируемость производительности RAID-массивов. Массив с чередованием оказывается значительно быстрее одиночных Kingston HyperX 3K объёмом 240 и 480 Гбайт как при последовательном чтении, так и при записи.

⇡ Случайные операции чтения и записи, IOMeter

А вот при случайном чтении такого же впечатляющего прироста в скорости, как в случае последовательных операций, не видно. Из приведённых на диаграммах результатов можно сделать вывод о том, что массив RAID 0 эффективен лишь тогда, когда из случайных операций формируется очередь.

Начать тут следует с того, что при измерении скорости случайной записи крайне невысокие результаты показывает Kingston HyperX 3K ёмкостью 480 Гбайт. Эта странная особенность этого накопителя обуславливается неприспособленностью старого контроллера SandForce второго поколения к созданию SSD большого объёма. Именно поэтому массивы RAID 0 из SSD небольшого объёма могут иметь значительно более высокую скорость, нежели одиночные флеш-диски аналогичной ёмкости. Между тем по сравнению с одиночным Kingston HyperX 3K 240 Гбайт массив, составленный из таких флеш-дисков, отнюдь не быстрее. Впрочем, особо расстраиваться по этому поводу не стоит: такая ситуация наблюдается исключительно при случайной записи.

Давайте теперь взглянем на то, как зависит производительность RAID 0 при работе с 4-килобайтными блоками от глубины очереди запросов.

Приведённые графики служат ещё одной иллюстрацией к сказанному выше. Если при чтении RAID 0 демонстрирует более высокую скорость, чем одиночные твердотельные накопители, причём преимущество с ростом глубины очереди возрастает, то при операциях записи RAID 0 из Kingston HyperX 3K 240 Гбайт опережает лишь Kingston HyperX 3K 480 Гбайт. Один же Kingston HyperX 3K 240 Гбайт оказывается лучше массива.

Следующая пара графиков отражает зависимость производительности случайных операций от размера блока данных.

На самом деле, как оказывается, RAID 0-массив проигрывает по скорости записи одиночным накопителям, в него входящим, лишь в том случае, когда операции происходят 4-килобайтными блоками. Это и не удивительно. Как следует из графика, Kingston HyperX 3K 240 Гбайт оптимизирован под запросы размером 4 Кбайт, но RAID-контроллер в соответствии с выбранным нами размером страйп-блока преобразует их в 16-килобайтные запросы. К сожалению, использовать в массиве чередование 4-Кбайт блоков — далеко не самая выигрышная стратегия. В этом случае серьёзно возрастает создаваемая RAID-контроллером нагрузка на центральный процессор, и никакого реального прироста в скорости может и не оказаться.

В завершение рассмотрения результатов IOmeter предлагаем взглянуть на производительность накопителей при синтетическом моделировании тяжёлой смешанной дисковой активности, в котором одновременно и в несколько потоков воспроизводятся разные типы операций.

Массив RAID 0 из пары Kingston HyperX 3K 240 Гбайт показывает чуть более высокую скорость, нежели простой накопитель Kingston HyperX 3K 240 Гбайт. Однако Kingston HyperX 3K 480 Гбайт к смешанной нагрузке приспособлен ещё лучше — его результат выше. Впрочем, различие между тестируемыми конфигурациями в этом бенчмарке не носит принципиального характера.

⇡ Результаты в CrystalDiskMark

CrystalDiskMark — это популярное простое тестовое приложение, работающее «поверх» файловой системы, которое позволяет получать результаты, легко повторяемые обычными пользователями. И то, что выдаёт этот бенчмарк, несколько отличается от показателей, которые были получены нами в тяжёлом и многофункциональном пакете IOmeter, хотя с качественной точки зрения никаких кардинальных различий нет. Производительность RAID-массива с чередованием отлично масштабируется с точки зрения последовательных операций. Нет никаких претензий и к работе RAID 0 из Kingston HyperX 3K 240 Гбайт при случайном чтении. В этом случае прирост скорости по сравнению с одиночными SSD зависит от глубины очереди запросов, и, когда её длина достигает большой величины, RAID 0 способен выдавать существенно более высокую скорость. При произвольной же записи картина несколько иная. RAID 0 проигрывает одному Kingston HyperX 3K 240 Гбайт в тех случаях, когда операции не буферизируются, но увеличение глубины очереди запросов ожидаемо возвращает преимущество двухдисковой конфигурации.

Кроме того, CrystalDiskMark вновь обнажает проблемы с производительностью ёмкой модели Kingston HyperX 3K 480 Гбайт на операциях случайной записи, ещё раз подчёркивая преимущества RAID 0 в случае необходимости создания дисковых конфигураций значительного объёма.

⇡ PCMark 8 2.0, реальные сценарии использования

Тестовый пакет Futuremark PCMark 8 2.0 интересен тем, что он имеет не синтетическую природу, а напротив — основывается на том, как работают реальные приложения. В процессе его прохождения воспроизводятся настоящие сценарии-трассы задействования диска в распространённых десктопных задачах и замеряется скорость их выполнения. Текущая версия этого теста моделирует нагрузку, которая взята из реальных игровых приложений Battlefield 3 и World of Warcraft и программных пакетов компаний Abobe и Microsoft: After Effects, Illustrator, InDesign, Photoshop, Excel, PowerPoint и Word. Итоговый результат исчисляется в виде усреднённой скорости, которую показывают накопители при прохождении тестовых трасс.

В тесте PCMark 8, который моделирует работу в реальных приложениях, массив RAID 0 показывает примерно на 20-25 процентов более высокую производительность, нежели одиночные флеш-диски. По всей видимости, примерно на такое улучшение скорости работы и должны рассчитывать те энтузиасты, которых заинтересует предмет этого исследования.

Интегральный показатель PCMark 8 следует дополнить и показателями производительности, выдаваемыми флеш-дисками при прохождении отдельных тестовых трасс, которые моделируют различные варианты реальной нагрузки.

Несмотря на то, что в синтетических тестах нам попадались ситуации, в которых массив RAID 0 оказывался медленнее одиночных накопителей, в него входящих, в реальной жизни такие ситуации, скорее всего, не возникнут. По крайней мере, PCMark 8 явно указывает на то, что в любом из популярных приложений RAID 0 работает быстрее. Уровень преимущества массива из пары Kingston HyperX 3K 240 Гбайт перед одним таким накопителем колеблется от 3 до 33 процентов. А у более ёмкой модификации Kingston HyperX 3K 480 Гбайт исследуемый RAID-массив выигрывает ещё сильнее.

⇡ Выводы

Итак, тестирование массива RAID 0, составленного из твердотельных накопителей показывает, что такая конфигурация имеет право на жизнь. Конечно, это не отменяет наличия у дисковых массивов их традиционных недостатков, но разработчики интегрированных RAID-контроллеров и драйверов проделали очень большую работу и добились того, что многие проблемы таких конфигураций отошли в прошлое. В целом же создание массива RAID 0 — это один из традиционных путей для повышения производительности дисковой подсистемы. Этот приём вполне работает и для SSD, объединение в массив пары дисков действительно позволяет нарастить как линейные скорости, так и быстродействие операций над небольшими блоками с глубокой очередью запросов. Так, в процессе тестов нам удалось получить для массива поистине впечатляющие показатели производительности последовательного чтения и записи, существенно превосходящие пропускную способность интерфейса SATA 6 Гбит/с. При этом твердотельные накопители максимального объёма, как мы увидели в тестах, не всегда обладают лидирующим уровнем быстродействия. Поэтому RAID 0-конфигурации могут быть востребованы и в тех ситуациях, когда стоит задача создания дисковой подсистемы большой ёмкости.

Надо сказать, что ранее к RAID из SSD мы относились с некоторой опаской, так как RAID-контроллеры блокировали использование команды TRIM, а также не давали наблюдать за состоянием входящих в состав массива накопителей. Однако на данный момент всё это осталось в прошлом, по крайней мере для контроллеров, встроенных в наборы системной логики компании Intel. Сегодня в RAID 0 нормально поддерживается TRIM, а драйвер позволяет свободно следить за S.M.A.R.T.-параметрами входящих в массив SSD.

Что же касается участвовавших в нашем тестировании накопителей Kingston HyperX 3K, то их 240-гигабайтные модификации показали себя вполне достойным выбором для создания RAID-массивов. Компания Kingston перевела их на более новую, 19-нм память компании Toshiba, и новый аппаратный дизайн позволил несколько улучшить быстродействие, не вызвав при этом никаких неприятных эффектов.

Пусть основанные на контроллерах SandForce накопители и кажутся далеко не самым свежим решением, но для RAID-массивов они подходят очень даже неплохо. С одной стороны, эти SSD всесторонне проверены и очень надёжны, а с другой — обладают весьма соблазнительной ценой. Что же до производительности, то составленный из двух SandForce-приводов дисковый массив уровня RAID 0, вне всяких сомнений, даст фору любой однодисковой конфигурации. Хотя бы потому, что быстродействие его последовательных операций не ограничивается полосой пропускания интерфейса SATA 6 Гбит/с.

Приветствую читателей блога!
Сегодня будет очередная статья на компьютерную тему, а посвящена она будет такому понятию, как Raid массив дисков – уверен, многим это понятие абсолютно ничего не скажет, а те, кто уже где-то про это слышал, не имеют представление о том, что это вообще такое. Давайте разбираться вместе!

Что такое Raid массив?

Не вдаваясь в детали терминологии, Raid массив – это некий комплекс, построенный из нескольких жестких дисков, который позволяет более грамотно распределять между ними функции. Как обычно мы размещаем жесткие диски в компе? Подключаем к Sata один жесткий диск, потом другой, третий. И появляются в нашей операционке диски D, E, F и так далее. Мы можем поместить на них какие-то файлы или установить Windows, но по сути это будут отдельные диски – вынув один из них мы ровным счетом ничего не заметим (если на нем не была установлена ОС) кроме того, что нам не будут доступны записанные на них файлы. Но есть другой путь – объединить эти диски в систему, задать им определенный алгоритм совместной работы, в результате которого значительно повысится надежность хранения информации или скорость их работы.

Но прежде, чем мы сможем создать эту систему, нужно знать, поддерживает ли материнская плата работу с дисковыми массивами Raid. Во многих современных материнках уже имеется встроенный Raid-контроллер, который-то и позволяет объединить жесткие диски. Поддерживаемые схемы массивов имеются в описаниях к материнской плате. Например, возьмем первую попавшуюся мне на глаза в Яндекс Маркете плату ASRock P45R2000-WiFi.

Здесь описание поддерживаемых Raid массивов отображается в разделе “Дисковые контроллеры Sata”.

В данном примере мы видим, что Sata контроллер поддерживает создание массивов Raid: 0, 1, 5, 10. Что означают эти цифры? Это обозначение различных типов массивов, в которых диски взаимодействуют между собой по разным схемам, которые призваны, как я уже говорил, либо ускорять их работу, либо увеличивают надежность от потери данных.

Если же системная плата компьютера не поддерживает Raid, то можно приобрести отдельный Raid-контроллер в виде PCI платы, которая вставляется в PCI слот на материнке и дает ей возможность создавать массивы из дисков. Для работы контроллера после его установки нужно будет также установить raid драйвер, который либо идет на диске с данной моделью, либо можно просто скачать из интернета. Лучше всего на данном устройстве не экономить и купить от какого-то известного производителя, например Asus, и с чипсетами Intel.

Я подозреваю, что пока что вы еще не очень имеете представление, о чем все же идет речь, поэтому давайте внимательно разберем каждый из самых популярных типов Raid массивов, чтобы все стало более понятно.

Массив RAID 1

Массив Raid 1 – один из самых распространенных и бюджетных вариантов, который использует 2 жестких диска. Этот массив призван обеспечить максимальную защиту данных пользователя, потому что все файлы будут одновременно копироваться сразу на 2 жестких диска. Для того, чтобы его создать, берем два одинаковых по объему харда, например по 500 Гб и делаем соответствующие настройки в BIOS для создания массива. После этого в вашей системе будет виден один жесткий диск размеров не 1 Тб, а 500 Гб, хотя физически работают два жестких диска – формула расчета приведена чуть ниже. И все файлы одновременно будут писаться на два диска, то есть второй будет полной резервной копией первого. Как вы понимаете, при выходе из строя одного из дисков вы не потеряете ни частички своей информации, так как у вас будет вторая копия этого диска.

Также поломки и не заметит операционная система, которая продолжит работу со вторым диском – о неполадке вас известит лишь специальная программа, которая контролирует функционирование массива. Вам нужно лишь удалить неисправный диск и подключить такой же, только рабочий – система автоматически скопирует на него все данные с оставшегося исправного диска и продолжит работу.

Объем диска, который будет видеть система, рассчитывается здесь по формуле:

V = 1 x Vmin, где V – это общий объем, а Vmin – объем памяти самого маленького жесткого диска.

Массив RAID 0

Еще одна популярная схема, которая призвана повысить не надежность хранения, а наоборот, скорость работы. Также состоит из двух HDD, однако в этом случае ОС видим уже полный суммарный объем двух дисков, т.е. если объединить в Raid 0 диски по 500 Гб, то система увидит один диск размером 1 Тб. Скорость чтения и записи повышается за счет того, что блоки файлов пишутся поочередно на два диска – но при этом отказоустойчивость данной системы минимальная – при выходе из строя одного из дисков почти все файлы будут повреждены и вы потеряете часть данных – ту, которая была записана на сломавшийся диск. Восстанавливать информацию после этого придется уже в сервисном центре.

Формула расчета общего объема диска, видимого Windows, выглядит так:

Если вы до прочтения данной статьи по большому счету не беспокоились об отказоустойчивости вашей системы, но хотели бы повысить скорость работы, то можете купить дополнительный винчестер и смело использовать этот тип. По большому счету, в домашних условиях подавляющее количество пользователей не хранит какой-то супер-важной информации, а скопировать какие-то важные файлы можно на отдельный внешний жесткий диск.

Массив Raid 10 (0+1)

Как следует уже из самого названия, этот тип массива объединяет в себе свойства двух предыдущих – это как бы два массива Raid 0, объединенных в Raid 1. Используются четыре жестких диска, на два из них информация записывается блоками поочередно, как это было в Raid 0, а на два других – создаются полные копии двух первых. Система очень надежная и при этом достаточно скоростная, однако весьма дорогая в организации. Для создания нужно 4 HDD, при этом система будет видеть общий объем по формуле:

То есть, если возьмем 4 диска по 500 Гб, то система увидит 1 диск размером 1 Тб.

Данный тип, также как и следующий, чаще всего используется в организациях, на серверных компьютерах, где нужно обеспечить как высокую скорость работы, так и максимальную безопасность от потери информации в случае непредвиденных обстоятельств.

Массив RAID 5

Массив Raid 5 – оптимальное сочетание цены, скорости и надежности. В данном массиве минимально могут быть задействованы 3 HDD, объем рассчитывается из более сложной формулы:

V = N x Vmin – 1 x Vmin, где N – количество жестких дисков.

Итак, допустим у нас 3 диска по 500 Гб. Объем, видимый ОС, будет равен 1 Тб.

Схема работы массива выглядит следующим образом: на первые два диска (или три, в зависимости от их количества) записываются блоки разделенных файлов, а на третий (или четвертый) – контрольная сумма первых двух (или трех). Таким образом, при отказе одного из дисков, его содержимое легко восстановить за счет имеющейся на последнем диске контрольной суммы. Производительность такого массива ниже, чем у Raid 0, но такая же надежная, как Raid 1 или Raid 10 и при этом дешевле последнего, т.к. можно сэкономить на четвертом харде.

На схеме ниже представлена схема Raid 5 из четырех HDD.

Есть также другие режимы – Raid 2,3, 4, 6, 30 и т.д., но они являются по большому счету производными от перечисленных выше.

Как установить Raid массив дисков на Windows?

С теорией, надеюсь, разобрались. Теперь посмотрим на практику – вставить в слот PCI Raid контроллер и установить драйвера, думаю, опытным пользователям ПК труда не составит.

Как же теперь создать в операционной системе Windows Raid массив из подключенных жестких дисков?

Лучше всего, конечно, это делать, когда вы только-только приобрели и подключили чистенькие винчестеры без установленной ОС. Сначала перезагружаем компьютер и заходим в настройки BIOS – здесь нужно найти SATA контроллеры, к которым подключены наши жесткие диски, и выставить их в режим RAID.

После этого сохраняем настройки и перезагружаем ПК. На черном экране появится информация о том, что у вас включен режим Raid и о клавише, с помощью которой можно попасть в его настройку. В примере ниже предложено нажать клавишу “TAB”.

В зависимости от модели Raid-контроллера она может быть другой. Например, “CNTRL+F”

Заходим в утилиту настройки и нажимаем в меню что-то типа “Create array” или “Create Raid” – надписи могут отличаться. Также если контроллер поддерживает несколько типов Raid, то будет предложено выбрать, какой именно нужно создать. В моем примере доступен только Raid 0.

После этого возвращаемся обратно в BIOS и в настройке порядка загрузки видим уже не несколько отдельных дисков, а один в виде массива.

Вот собственно и все – RAID настроен и теперь компьютер будет воспринимать ваши диски как один. Вот так, например, будет виден Raid при установке Windows.

Думаю, что вы уже поняли преимущества использования Raid. Напоследок приведу сравнительную таблицу замеров скорости записи и чтения диска отдельно или в составе режимов Raid – результат, как говорится, на лицо.

В статье представлена общая структура и организация работы RAID систем. Кратко рассмотрена необходимая теоретическая часть, после которой показаны непосредственно практические моменты. Все кто не знает, что такое жесткий диск — могут прочесть статью т.к. для создания Raid массива потребуется пару жестких дисков.

Ценность информации как таковой со временем лишь возрастает, в то время как, стоимость способов, обуславливающих надёжное хранение оной, регулярно падает. Например, материнские платы, оснащенные возможностью для создания RAID массивов, лет десять назад сильно «кусались» ценой, сегодня же практически все материнки на iP55 чипсете (который является лишь предтоповым набором системной логики) оснащены чипсетной поддержкой RAID систем.

RAID массивы, к слову говоря, в силу отличного соотношения цена-качество, на сегодняшний день являются одним из самых популярных способов надёжной организации данных. Если перевести аббревиатуру RAID с английского, то это есть избыточный массив, состоящий из независимых дисков. В силу малой отказоустойчивости у отдельного жёсткого диска, была разработана концепция, позволяющая объединять харды в один массив. Управления этим массивом поручалось отдельному контроллеру (сегодня это может быть непосредственно микросхема на плате, либо софтверные средства, использующие ресурсы CPU). RAID системы изначально ориентированы на отказоустойчивость (кроме RAID уровня 0), поэтому теоретически при поломке одного из HDD массива, информация в целом, записанная на том, остается доступной, по крайней мере, для чтения.

Существуют довольно обширная градация уровней RAID (способов организации данных в массиве), для того, чтобы создавать RAID системы необходимо иметь хотя бы базовое представления о его принципах работы, по сути это тема отдельной статьи, мы ограничимся лишь краткими очерками наиболее актуальных.

RAID0.
Данные записываются поочерёдно на разные накопители (страйпами), благодаря этому, в итоге мы можем получить практически двукратный прирост в скорости линейного чтения. Какая-либо отказоустойчивость отсутствует, в случае выхода из строя хотя бы одного жёсткого диска теряются вообще все данные массива. Используется, как правило, для быстрой работы с информацией, которой в случае чего можно пожертвовать, например, для временных папок Adobe Fotoshop… Некоторые используют сие для ОС (геймеры, энтузиасты и т.д.).

Зеркалирование. Всё просто. Больше хардов – больше стоимость полезного объёма, но тем выше отказоустойчивость. В классическом своём варианте прирост производительности отсутствует. Модификации вида RAID 1e находятся внебюджетного ориентира, потому рассмотрение оных мы упустим.

Уровни 2,3,4 практически потеряли былую популярность. Сегодня наиболее актуальный RAID массив, сочетающий производительность и отказоустойчивость — это RAID 5. Как и в случае с RAID 0, данные поочерёдно записываются на разные накопители (также страйпами), но дополненные контрольными суммами. В итоге полезная ёмкость RAID 5, состоящего из n дисков, равна n-1 диск. В случае выхода из строя одного харда, информация остаётся доступной, в случае же поломки двух и более – теряется.

RAID10 (или RAID 1+0).

Наиболее популярный представитель составных RAID систем. Дабы как-то ускорить работу классического зеркала, возникла идея об их объединении в быстрый массив. Представляет собой объединение зеркал (RAID 1)в один большой страйп (RAID 0). Главный минус – более высокая стоимость полезного объёма, плюсы – более высокая скорость обработки данных, кроме того, повышенная отказоустойчивость. Теоретически из строя одновременно могут выйти два накопителя, но из разных подмассивов.

Как уже писал выше, для организации RAID систем необходим контроллер. Контроллеры есть софтверные и хардверные (аппаратные).

Рассмотри аппаратные.
Как и в случае с видеокартами, с этой области также происходит разделение на интегрированные (в материнку) и дискретные. Интегрированные можно разделить на чипсетные (реализация посредством «южного моста») и на контроллеры, выполненные сторонними разработчиками (на материнке распаивается дополнительная нечипсетная микросхема). Последние чаще всего крайне примитивны, поддерживаются, как правило, только уровни RAID 0 и 1.

Чипсетные вариации интереснее и могут по своему функционалу поспорить с рядом дискретных аналогов. Например, последние чипсеты от Intel позволяют реализовать RAID 0,1,5,10 уровней.

Дискретные решения для организации RAID массивов, снова, как и видеокарты, существуют дорогие и дешёвые (бюджетные). Отличаются они, понятно, доступным функционалом, надёжностью, а также средствами «ребилда» (внутренняя перестройка – самовосстановление).
На фото 1,2,3

представители Low-end, Middle-end и High-end секторов.

Следует заметить, что ряд бюджетных дискретных вариаций, а также все интегрированные решения очень часто называют софтверными из-за бОльших потребностей в ресурсах CPU, по сравнению с дорогими аналогами. Мощный процессор (собственный) дорогого дискретного RAID контроллера практически полностью самостоятельно обслуживает массив, в то время как Low-end класс в виду слабых возможностей и очень часто — примитивности, всё больше апеллирует к возможностям CPU, тем самым дополнительно нагружая систему.
Но если у интегрированных исполнений есть хоть какая-то базовая микросхема, от функционала которой можно оттолкнуться, то у чистых софтверных решений такое отсутствует вообще.

Софтверные решения.
Здесь всё очень просто, RAID массив создаётся средствами ОС. В виду большей надёжности, как правило, используются серверные вариации операционок. Для ОС RAID видится точно также как и обычный аппаратный аналог. Самый главный плюс такого рода решений — это стоимость: отсутствует необходимость покупать дорогостоящий контроллер. Существует, разумеется, и минус, подчас полностью перечёркивающий вышеописанный плюс – это низкая надёжность. Если вдруг с ОС, что-то произойдёт (заведутся вирусы, например), то можно вместе с «синим экраном» потерять вообще все данные. Поэтому, если кто ещё и организует для работы до сих пор такого рода решения, то только уровня 0 (для ОС, либо для быстрых буферов) или 1. «Постройка» софтверного RAID осуществляется средствами встроенного менеджера разделов.


(фото 4, 5)

Теперь рассмотрим непосредственно инсталляцию аппаратного RAID массива.
Случай первый. Если пред нами какое либо интегрированное в материнку решение, то необходимо его задействовать. Осуществляется сие через BIOS материнской платы, как правило, простым перевод в позицию «Enable».


(фото 6)

Случай второй. Если у нас дискретный RAID, то просто вставляем плату и подключаем к ней жёсткие диски.
Как и в первом, так и во втором варианте после включения компьютера и прохождения им «POST-таблицы», машина должна увидеть контроллер и предложить нажать какую-либо комбинацию клавиш для входа в BIOS, но уже контроллера. Это будет что-то типа Ctrl+A, Ctrl+g и т.д. Нажали – вошли.


(фото 7)

Если мы используем дорогой RAID, то и BIOS будет отличаться кардинально.


(фото 8)
Здесь даже мышку юзать можно.
Все интерфейсы интуитивно понятны, единственное, что может смутить, так это английский язык. Общий принцип таков: выделили нужные харды и инициализировали их в RAID нужного вам уровня.


(фото 9)

После создания можно приступать к установке ОС (если это требуется), подробно о данном процессе написано в статье касательно установки XP на ноутбук, принцип тот же самый. Единственное отличие актуальное для Windows Vista и ей подобным ОС заключается в возможности использования флешки, т.е. необходимые драйвера для контроллера можно скопировать на USB-накопитель, а затем при инсталляции просто указать путь, либо интегрировать непосредственно в дистрибутив оные драйвера посредством vLite (www.vlite.net).

RAID-решения плавно переходят из разряда элитарных в раздел «для всех», становясь тем самым всё более доступным средством для надёжной работы с данными. При апгрейде компьютера и выборе материнской платы стоит обратить внимание на наличие поддержки у оной RAID. Возможно, это когда-нибудь спасёт ваши «те самые фотки»…

Все современные материнские платы оснащены интегрированным RAID-контроллером, а топовые модели имеют даже по нескольку интегрированных RAID-контроллеров. Насколько интегрированные RAID-контроллеры востребованы домашними пользователями - вопрос отдельный. В любом случае современная материнская плата предоставляет пользователю возможность создания RAID-массива из нескольких дисков. Однако далеко не каждый домашний пользователь знает, как создать RAID-массив, какой уровень массива выбрать, да и вообще плохо представляет себе плюсы и минусы использования RAID-массивов.
В этой статье мы дадим краткие рекомендации по созданию RAID-массивов на домашних ПК и на конкретном примере продемонстрируем, каким образом можно самостоятельно протестировать производительность RAID-массива.

История создания

Впервые термин «RAID-массив» появился в 1987 году, когда американские исследователи Паттерсон, Гибсон и Катц из Калифорнийского университета Беркли в своей статье «Избыточный массив недорогих дисков» (“A Case for Redundant Arrays of Inexpensive Discs, RAID”) описали, каким образом можно объединить несколько дешевых жестких дисков в одно логическое устройство так, чтобы в результате повышались емкость и быстродействие системы, а отказ отдельных дисков не приводил к отказу всей системы.

С момента выхода этой статьи прошло уже более 20 лет, но технология построения RAID-массивов не утратила актуальности и сегодня. Единственное, что изменилось с тех пор, - это расшифровка аббревиатуры RAID. Дело в том, что первоначально RAID-массивы строились вовсе не на дешевых дисках, поэтому слово Inexpensive (недорогие) поменяли на Independent (независимые), что больше соответствовало действительности.

Принцип действия

Итак, RAID - это избыточный массив независимых дисков (Redundant Arrays of Independent Discs), на который возлагается задача обеспечения отказоустойчивости и повышения производительности. Отказоустойчивость достигается за счет избыточности. То есть часть емкости дискового пространства отводится для служебных целей, становясь недоступной для пользователя.

Повышение производительности дисковой подсистемы обеспечивается одновременной работой нескольких дисков, и в этом смысле чем больше дисков в массиве (до определенного предела), тем лучше.

Совместную работу дисков в массиве можно организовать с помощью либо параллельного, либо независимого доступа. При параллельном доступе дисковое пространство разбивается на блоки (полоски) для записи данных. Аналогично информация, подлежащая записи на диск, разбивается на такие же блоки. При записи отдельные блоки записываются на разные диски, причем запись нескольких блоков на различные диски происходит одновременно, что и приводит к увеличению производительности в операциях записи. Нужная информация также считывается отдельными блоками одновременно с нескольких дисков, что тоже способствует росту производительности пропорционально количеству дисков в массиве.

Следует отметить, что модель с параллельным доступом реализуется только при условии, что размер запроса на запись данных больше размера самого блока. В противном случае осуществлять параллельную запись нескольких блоков практически невозможно. Представим ситуацию, когда размер отдельного блока составляет 8 Кбайт, а размер запроса на запись данных - 64 Кбайт. В этом случае исходная информация нарезается на восемь блоков по 8 Кбайт каждый. Если имеется массив из четырех дисков, то одновременно можно записать четыре блока, или 32 Кбайт, за один раз. Очевидно, что в рассмотренном примере скорость записи и скорость считывания окажутся в четыре раза выше, чем при использовании одного диска. Это справедливо лишь для идеальной ситуации, однако размер запроса далеко не всегда кратен размеру блока и количеству дисков в массиве.

Если же размер записываемых данных меньше размера блока, то реализуется принципиально иная модель - независимый доступ. Более того, эта модель может использоваться и в том случае, когда размер записываемых данных больше размера одного блока. При независимом доступе все данные отдельного запроса записываются на отдельный диск, то есть ситуация идентична работе с одним диском. Преимущество модели с независимым доступом в том, что при одновременном поступлении нескольких запросов на запись (чтение) все они будут выполняться на отдельных дисках независимо друг от друга. Подобная ситуация типична, например, для серверов.

В соответствии с различными типами доступа существуют и разные типы RAID-массивов, которые принято характеризовать уровнями RAID. Кроме типа доступа, уровни RAID различаются способом размещения и формирования избыточной информации. Избыточная информация может либо размещаться на специально выделенном диске, либо распределяться между всеми дисками. Способов формирования этой информации достаточно много. Простейший из них - это полное дублирование (100-процентная избыточность), или зеркалирование. Кроме того, используются коды с коррекцией ошибок, а также вычисление четности.

Уровни RAID-массивов

В настоящее время существует несколько RAID-уровней, которые можно считать стандартизованными, - это RAID 0, RAID 1, RAID 2, RAID 3, RAID 4, RAID 5 и RAID 6.

Применяются также различные комбинации RAID-уровней, что позволяет объединить их достоинства. Обычно это комбинация какого-либо отказоустойчивого уровня и нулевого уровня, применяемого для повышения производительности (RAID 1+0, RAID 0+1, RAID 50).

Отметим, что все современные RAID-контроллеры поддерживают функцию JBOD (Just a Bench Of Disks), которая не предназначена для создания массивов, - она обеспечивает возможность подключения к RAID-контроллеру отдельных дисков.

Нужно отметить, что интегрированные на материнские платы для домашних ПК RAID-контроллеры поддерживают далеко не все RAID-уровни. Двухпортовые RAID-контроллеры поддерживают только уровни 0 и 1, а RAID-контроллеры с большим количество портов (например, 6-портовый RAID-контроллер, интегрированный в южный мост чипсета ICH9R/ICH10R) - также уровни 10 и 5.

Кроме того, если говорить о материнских платах на чипсетах Intel, то в них тоже реализована функция Intel Matrix RAID, которая позволяет создать на нескольких жестких дисках одновременно RAID-матрицы нескольких уровней, выделив для каждой из них часть дискового пространства.

RAID 0

RAID уровня 0, строго говоря, не является избыточным массивом и соответственно не обеспечивает надежности хранения данных. Тем не менее данный уровень активно применяется в случаях, когда необходимо обеспечить высокую производительность дисковой подсистемы. При создании RAID-массива уровня 0 информация разбивается на блоки (иногда эти блоки называют страйпами (stripe)), которые записываются на отдельные диски, то есть создается система с параллельным доступом (если, конечно, это позволяет размер блока). Благодаря возможности одновременного ввода-вывода с нескольких дисков, RAID 0 обеспечивает максимальную скорость передачи данных и максимальную эффективность использования дискового пространства, поскольку не требуется места для хранения контрольных сумм. Реализация этого уровня очень проста. В основном RAID 0 применяется в тех областях, где требуется быстрая передача большого объема данных.

RAID 1 (Mirrored disk)

RAID уровня 1 - это массив двух дисков со 100-процентной избыточностью. То есть данные при этом просто полностью дублируются (зеркалируются), за счет чего достигается очень высокий уровень надежности (как, впрочем, и стоимости). Отметим, что для реализации уровня 1 не требуется предварительно разбивать диски и данные на блоки. В простейшем случае два диска содержат одинаковую информацию и являются одним логическим диском. При выходе из строя одного диска его функции выполняет другой (что абсолютно прозрачно для пользователя). Восстановление массива выполняется простым копированием. Кроме того, этот уровень удваивает скорость считывания информации, так как эта операция может выполняться одновременно с двух дисков. Подобная схема хранения информации используется в основном в тех случаях, когда цена безопасности данных гораздо выше стоимости реализации системы хранения.

RAID 5

RAID 5 - это отказоустойчивый дисковый массив с распределенным хранением контрольных сумм. При записи поток данных разбивается на блоки (страйпы) на уровне байтов и одновременно записываются на все диски массива в циклическом порядке.

Предположим, что массив содержит n дисков, а размер страйпа d . Для каждой порции из n–1 страйпов рассчитывается контрольная сумма p .

Cтрайп d 1 записывается на первый диск, страйп d 2 - на второй и так далее вплоть до страйпа d n–1 , который записывается на (n –1)-й диск. Далее на n -й диск записывается контрольная сумма p n , и процесс циклически повторяется с первого диска, на который записывается страйп d n .

Процесс записи (n–1) страйпов и их контрольной суммы производится одновременно на все n дисков.

Для вычисления контрольной суммы используется поразрядная операция «исключающего ИЛИ» (XOR), применяемая к записываемым блокам данных. Так, если имеется n жестких дисков, d - блок данных (страйп), то контрольная сумма рассчитывается по следующей формуле:

p n = d 1 d 2 ... d 1–1 .

В случае выхода из строя любого диска данные на нем можно восстановить по контрольным данным и по данным, оставшимся на исправных дисках.

В качестве иллюстрации рассмотрим блоки размером по четыре бита. Пусть имеются всего пять дисков для хранения данных и записи контрольных сумм. Если есть последовательность битов 1101 0011 1100 1011, разбитая на блоки по четыре бита, то для расчета контрольной суммы необходимо выполнить следующую поразрядную операцию:

1101 0011 1100 1011 = 1001.

Таким образом, контрольная сумма, записываемая на пятый диск, равна 1001.

Если один из дисков, например четвертый, вышел из строя, то блок d 4 = 1100 окажется недоступным при считывании. Однако его значение легко восстановить по контрольной сумме и по значениям остальных блоков с помощью все той же операции «исключающего ИЛИ»:

d 4 = d 1 d 2 d 4 p 5 .

В нашем примере получим:

d 4 = (1101) (0011) (1100) (1011) = 1001.

В случае RAID 5 все диски массива имеют одинаковый размер, однако общая емкость дисковой подсистемы, доступной для записи, становится меньше ровно на один диск. Например, если пять дисков имеют размер 100 Гбайт, то фактический размер массива составляет 400 Гбайт, поскольку 100 Гбайт отводится на контрольную информацию.

RAID 5 может быть построен на трех и более жестких дисках. С увеличением количества жестких дисков в массиве его избыточность уменьшается.

RAID 5 имеет архитектуру независимого доступа, что обеспечивает возможность одновременного выполнения нескольких операций считывания или записи.

RAID 10

Уровень RAID 10 представляет собой некое сочетание уровней 0 и 1. Минимально для этого уровня требуются четыре диска. В массиве RAID 10 из четырех дисков они попарно объединяются в массивы уровня 0, а оба этих массива как логические диски объединяются в массив уровня 1. Возможен и другой подход: первоначально диски объединяются в зеркальные массивы уровня 1, а затем логические диски на основе этих массивов - в массив уровня 0.

Intel Matrix RAID

Рассмотренные RAID-массивы уровней 5 и 1 редко используются в домашних условиях, что связано прежде всего с высокой стоимостью подобных решений. Наиболее часто для домашних ПК применяется именно массив уровня 0 на двух дисках. Как мы уже отмечали, RAID уровня 0 не обеспечивает безопасности хранения данных, а потому конечные пользователи сталкиваются с выбором: создавать быстрый, но не обеспечивающий надежности хранения данных RAID-массив уровня 0 или же, увеличивая стоимость дискового пространства в два раза, - RAID-массив уровня 1, который обеспечивает надежность хранения данных, однако не позволяет получить существенного выигрыша в производительности.

Для того чтобы разрешить эту нелегкую проблему, корпорация Intel разработала технологию Intel Matrix Storage, позволяющую объединить достоинства массивов уровней 0 и 1 всего на двух физических дисках. А для того, чтобы подчеркнуть, что речь в данном случае идет не просто о RAID-массиве, а о массиве, сочетающем в себе и физические и логические диски, в названии технологии вместо слова «массив» используется слово «матрица».

Итак, что же представляет собой RAID-матрица из двух дисков по технологии Intel Matrix Storage? Основная идея заключается в том, что при наличии в системе нескольких жестких дисков и материнской платы с чипсетом Intel, поддерживающим технологию Intel Matrix Storage, возможно разделение дискового пространства на несколько частей, каждая из которых будет функционировать как отдельный RAID-массив.

Рассмотрим простой пример RAID-матрицы из двух дисков по 120 Гбайт каждый. Любой из дисков можно разбить на два логических диска, например по 40 и 80 Гбайт. Далее два логических диска одного размера (например, по 40 Гбайт) можно объединить в RAID-матрицу уровня 1, а оставшиеся логические диски - в RAID-матрицу уровня 0.

В принципе, используя два физических диска, также можно создать всего одну или две RAID-матрицы уровня 0, но вот получить только матрицы уровня 1 невозможно. То есть если в системе имеются всего два диска, то технология Intel Matrix Storage позволяет создавать следующие типы RAID-матриц:

  • одна матрица уровня 0;
  • две матрицы уровня 0;
  • матрица уровня 0 и матрица уровня 1.

Если в системе установлены три жестких диска, то возможно создание следующих типов RAID-матриц:

  • одна матрица уровня 0;
  • одна матрица уровня 5;
  • две матрицы уровня 0;
  • две матрицы уровня 5;
  • матрица уровня 0 и матрица уровня 5.

Если в системе установлены четыре жестких диска, то дополнительно имеется возможность создать RAID-матрицу уровня 10, а также комбинации уровня 10 и уровня 0 или 5.

От теории к практике

Ели говорить о домашних компьютерах, то наиболее востребованными и популярными являются RAID-массивы уровней 0 и 1. Использование RAID-массивов из трех и более дисков в домашних ПК - скорее исключение из правила. Связано это с тем, что, с одной стороны, стоимость RAID-массивов возрастает пропорционально количеству задействованных в нем дисков, а с другой - для домашних компьютеров первоочередное значение имеет емкость дискового массива, а не его производительность и надежность.

Поэтому в дальнейшем мы рассмотрим RAID-массивы уровней 0 и 1 на основе только двух дисков. В задачу нашего исследования будет входить сравнение производительности и функциональности RAID-массивов уровней 0 и 1, созданных на базе нескольких интегрированных RAID-контроллеров, а также исследование зависимости скоростных характеристик RAID-массива от размера страйпа.

Дело в том, что хотя теоретически при использовании RAID-массива уровня 0 скорость чтения и записи должна возрастать вдвое, на практике возрастание скоростных характеристик гораздо менее скромное и для разных RAID-контроллеров оно различно. Аналогично и для RAID-массива уровня 1: несмотря на то что теоретически скорость чтения должна увеличиваться вдвое, на практике не всё так гладко.

Для нашего сравнительного тестирования RAID-контроллеров мы использовали материнскую плату Gigabyte GA-EX58A-UD7. Эта плата основана на чипсете Intel X58 Express с южным мостом ICH10R, имеющим интегрированный RAID-контроллер на шесть портов SATA II, который поддерживает организацию RAID-массивов уровней 0, 1, 10 и 5 с функцией Intel Matrix RAID. Кроме того, на плате Gigabyte GA-EX58A-UD7 интегрирован RAID-контроллер GIGABYTE SATA2, на базе которого реализованы два порта SATA II c возможностью организации RAID-массивов уровней 0, 1 и JBOD.

Также на плате GA-EX58A-UD7 интегрирован SATA III-контроллер Marvell 9128, на базе которого реализованы два порта SATA III c возможностью организации RAID-массивов уровней 0, 1 и JBOD.

Таким образом, на плате Gigabyte GA-EX58A-UD7 имеются три отдельных RAID-контроллера, на базе которых можно создать RAID-массивы уровней 0 и 1 и сравнить их друг с другом. Напомним, что стандарт SATA III обратно совместим со стандартом SATA II, поэтому на базе контроллера Marvell 9128, поддерживающего диски с интерфейсом SATA III, можно также создавать RAID-массивы с использованием дисков с интерфейсом SATA II.

Стенд для тестирования имел следующую конфигурацию:

  • процессор - Intel Core i7-965 Extreme Edition;
  • материнская плата - Gigabyte GA-EX58A-UD7;
  • версия BIOS - F2a;
  • жесткие диски - два диска Western Digital WD1002FBYS, один диск Western Digital WD3200AAKS;
  • интегрированные RAID-контроллеры:
  • ICH10R,
  • GIGABYTE SATA2,
  • Marvell 9128;
  • память - DDR3-1066;
  • объем памяти - 3 Гбайт (три модуля по 1024 Мбайт);
  • режим работы памяти - DDR3-1333, трехканальный режим работы;
  • видеокарта - Gigabyte GeForce GTS295;
  • блок питания - Tagan 1300W.

Тестирование проводилось под управлением операционной системы Microsoft Windows 7 Ultimate (32-bit). Операционная система инсталлировалась на диск Western Digital WD3200AAKS, который подключался к порту контроллера SATA II, интегрированного в южный мост ICH10R. RAID-массив собирался на двух дисках WD1002FBYS с интерфейсом SATA II.

Для измерения скоростных характеристик создаваемых RAID-массивов мы использовали утилиту IOmeter, которая является отраслевым стандартом для измерения производительности дисковых систем.

Утилита IOmeter

Поскольку мы задумывали эту статью как своеобразное руководство пользователя по созданию и тестированию RAID-массивов, логично будет начать с описания утилиты IOmeter (Input/Output meter), которая, как мы уже отметили, является своеобразным отраслевым стандартом для измерения производительности дисковых систем. Данная утилита бесплатна, и ее можно скачать с ресурса http://www.iometer.org.

Утилита IOmeter является синтетическим тестом и позволяет работать с неразбитыми на логические разделы жесткими дисками, благодаря чему можно тестировать диски независимо от файловой структуры и свести к нулю влияние операционной системы.

При тестировании возможно создание специфической модели доступа, или «паттерна», которая позволяет конкретизировать выполнение жестким диском специфических операций. В случае создания конкретной модели доступа разрешается менять следующие параметры:

  • размер запроса на передачу данных;
  • случайное/последовательное распределение (в %);
  • распределение операций чтения/записи (в %);
  • количество отдельных операций ввода-вывода, работающих параллельно.

Утилита IOmeter не требует инсталляции на компьютер и состоит из двух частей: собственно IOmeter и Dynamo.

IOmeter - это контролирующая часть программы с пользовательским графическим интерфейсом, позволяющим производить все необходимые настройки. Dynamo - это генератор нагрузки, который не имеет интерфейса. Каждый раз при запуске файла IOmeter.exe автоматически запускается и генератор нагрузки Dynamo.exe.

Для того чтобы начать работу с программой IOmeter, достаточно запустить файл IOmeter.exe. При этом открывается главное окно программы IOmeter (рис. 1).

Рис. 1. Главное окно программы IOmeter

Нужно отметить, что утилита IOmeter позволяет производить тестирование не только локальных дисковых систем (DAS), но и сетевых накопителей (NAS). К примеру, с ее помощью можно протестировать производительность дисковой подсистемы сервера (файл-сервера), используя для этого несколько сетевых клиентов. Поэтому часть закладок и инструментов в окне утилиты IOmeter относится именно к сетевым настройкам программы. Понятно, что при тестировании дисков и RAID-массивов эти возможности программы нам не потребуются, а потому мы не станем объяснять назначение всех вкладок и инструментов.

Итак, при запуске программы IOmeter в левой части главного окна (в окне Topology) будет отображаться древовидная структура всех запущенных генераторов нагрузки (экземпляров Dynamo). Каждый запущенный экземпляр генератора нагрузки Dynamo называется менеджером (manager). Кроме того, программа IOmeter является многопотоковой и каждый отдельный запущенный поток экземпляра генератора нагрузки Dynamo называется Worker. Количество запущенных Worker’ов всегда соответствует количеству логических ядер процессора.

В нашем примере используется только один компьютер с четырехъядерным процессором, поддерживающим технологию Hyper-Threading, поэтому запускается лишь один менеджер (один экземпляр Dynamo) и восемь (по количеству логических ядер процессора) Worker’ов.

Собственно, для тестирования дисков в данном окне нет необходимости что-либо менять или добавлять.

Если выделить мышью название компьютера в древовидной структуре запущенных экземпляров Dynamo, то в окне Target на вкладке Disk Target отобразятся все диски, дисковые массивы и прочие накопители (включая сетевые), установленные в компьютере. Это те накопители, с которыми программа IOmeter может работать. Носители могут быть помечены желтым или голубым цветом. Желтым цветом отмечаются логические разделы носителей, а голубым - физические устройства без созданных на них логических разделов. Логический раздел может быть перечеркнут или не перечеркнут. Дело в том, что для работы программы с логическим разделом его нужно прежде подготовить, создав на нем специальный файл, равный по размеру емкости всего логического раздела. Если логический раздел перечеркнут, то это значит, что раздел еще не подготовлен для тестирования (он будет подготовлен автоматически на первом этапе тестирования), ну а если раздел не перечеркнут, то это означает, что на логическом разделе уже создан файл, полностью готовый для тестирования.

Отметим, что, несмотря на поддерживаемую возможность работы с логическими разделами, оптимально тестировать именно не разбитые на логические разделы диски. Удалить логический раздел диска можно очень просто - через оснастку Disk Management . Для доступа к ней достаточно щелкнуть правой кнопкой мыши на значке Computer на рабочем столе и в открывшемся меню выбрать пункт Manage . В открывшемся окне Computer Management в левой части необходимо выбрать пункт Storage , а в нем - Disk Management . После этого в правой части окна Computer Management отобразятся все подключенные диски. Щелкнув правой кнопкой по нужному диску и выбрав в открывшемся меню пункт Delete Volume …, можно удалить логический раздел на физическом диске. Напомним, что при удалении с диска логического раздела вся информация на нем удаляется без возможности восстановления.

Вообще, с помощью утилиты IOmeter тестировать можно только чистые диски или дисковые массивы. То есть нельзя протестировать диск или дисковый массив, на котором установлена операционная система.

Итак, вернемся к описанию утилиты IOmeter. В окне Target на вкладке Disk Target необходимо выбрать тот диск (или дисковый массив), который будет подвергаться тестированию. Далее необходимо открыть вкладку Access Specifications (рис. 2), на которой можно будет определить сценарий тестирования.

Рис. 2. Вкладка Access Specifications утилиты IOmeter

В окне Global Access Specifications имеется список предустановленных сценариев тестирования, которые можно присвоить менеджеру загрузки. Впрочем, эти сценарии нам не понадобятся, поэтому все их можно выделить и удалить (для этого предусмотрена кнопка Delete ). После этого нажмем на кнопку New , чтобы создать новый сценарий тестирования. В открывшемся окне Edit Access Specification можно определить сценарий загрузки диска или RAID-массива.

Предположим, мы хотим выяснить зависимость скорости последовательного (линейного) чтения и записи от размера блока запроса на передачу данных. Для этого нам нужно сформировать последовательность сценариев загрузки в режиме последовательного чтения при различных размерах блока, а затем последовательность сценариев загрузки в режиме последовательной записи при различных размерах блока. Обычно размеры блоков выбираются в виде ряда, каждый член которого вдвое больше предыдущего, а первый член этого ряда равен 512 байт. То есть размеры блоков составляют следующий ряд: 512 байт, 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 Кбайт, 1 Мбайт. Делать размер блока больше 1 Мбайт при последовательных операциях нет смысла, поскольку при таких больших размерах блока данных скорость последовательных операций не изменяется.

Итак, сформируем сценарий загрузки в режиме последовательного чтения для блока размером 512 байт.

В поле Name окна Edit Access Specification вводим название сценария загрузки. Например, Sequential_Read_512. Далее в поле Transfer Request Size задаем размер блока данных 512 байт. Ползунок Percent Random/Sequential Distribution (процентное соотношение между последовательными и выборочными операциями) сдвигаем до упора влево, чтобы все наши операции были только последовательными. Ну а ползунок , задающий процентное соотношение между операциями чтения и записи, сдвигаем до упора вправо, чтобы все наши операции были только чтением. Остальные параметры в окне Edit Access Specification менять не нужно (рис. 3).

Рис. 3. Окно Edit Access Specification для создания сценария загрузки последовательного чтения
при размере блока данных 512 байт

Нажимаем на кнопку Ok , и первый созданный нами сценарий отобразится в окне Global Access Specifications на вкладке Access Specifications утилиты IOmeter.

Аналогично нужно создать сценарии и для остальных блоков данных, однако, чтобы облегчить себе работу, проще не создавать сценарий каждый раз заново, нажимая для этого кнопку New , а, выбрав последний созданный сценарий, нажать кнопку Edit Copy (редактировать копию). После этого опять откроется окно Edit Access Specification с настройками нашего последнего созданного сценария. В нем достаточно будет поменять лишь название и размер блока. Проделав аналогичную процедуру для всех остальных размеров блоков, можно приступить к формированию сценариев для последовательной записи, что делается совершенно аналогично, за исключением того, что ползунок Percent Read/Write Distribution , задающий процентное соотношение между операциями чтения и записи, нужно сдвинуть до упора влево.

Аналогично можно создать сценарии для выборочной записи и чтения.

После того как все сценарии будут готовы, их нужно присвоить менеджеру загрузки, то есть указать, с какими сценариями будет работать Dynamo .

Для этого еще раз проверяем, что в окне Topology выделено название компьютера (то есть менеджер нагрузки на локальном ПК), а не отдельный Worker. Это гарантирует, что сценарии нагрузки будут присваиваться сразу всем Worker’ам. Далее в окне Global Access Specifications выделяем все созданные нами сценарии нагрузки и нажимаем кнопку Add . Все выделенные сценарии нагрузки добавятся в окно (рис. 4).

Рис. 4. Присвоение созданных сценариев нагрузки менеджеру нагрузки

После этого нужно перейти к вкладке Test Setup (рис. 5), на которой можно задать время выполнения каждого созданного нами сценария. Для этого в группе Run Time задаем время выполнения сценария нагрузки. Вполне достаточно будет задать время, равное 3 мин.

Рис. 5. Задание времени выполнения сценария нагрузки

Кроме того, в поле Test Description необходимо указать название всего теста. В принципе, данная вкладка имеет массу других настроек, однако для наших задач они не нужны.

После того как все необходимые настройки произведены, рекомендуется сохранить созданный тест, нажав на панели инструментов на кнопку с изображением дискеты. Тест сохраняется с расширением *.icf. Впоследствии можно будет воспользоваться созданным сценарием нагрузки, запустив не файл IOmeter.exe, а сохраненный файл с расширением *.icf.

Теперь можно приступить непосредственно к тестированию, нажав на кнопку с изображением флажка. Вам будет предложено указать название файла с результатами тестирования и выбрать его местоположение. Результаты тестирования сохраняются в CSV-файле, который потом легко экспортировать в Excel и, установив фильтр по первому столбцу, выбрать нужные данные с результатами тестирования.

В ходе тестирования промежуточные результаты можно наблюдать на вкладке Result Display , а определить, к какому сценарию нагрузки они относятся, можно на вкладке Access Specifications . В окне Assigned Access Specification исполняемый сценарий отображается зеленым, выполненные сценарии - красным, а еще не выполненные сценарии - синим цветом.

Итак, мы рассмотрели базовые приемы работы с утилитой IOmeter, которые потребуются для тестирования отдельных дисков или RAID-массивов. Отметим, что мы рассказали далеко не обо всех возможностях утилиты IOmeter, но описание всех ее возможностей выходит за рамки данной статьи.

Создание RAID-массива на базе контроллера GIGABYTE SATA2

Итак, мы начинаем создание RAID-массива на базе двух дисков с использованием интегрированного на плате RAID-контроллера GIGABYTE SATA2. Конечно, сама компания Gigabyte не производит чипов, а потому под чипом GIGABYTE SATA2 скрывается перемаркированный чип другой фирмы. Как можно выяснить из INF-файла драйвера, речь идет о контроллере серии JMicron JMB36x.

Доступ в меню настройки контроллера возможен на этапе загрузки системы, для чего нужно нажать комбинацию клавиш Ctrl+G, когда появится соответствующая надпись на экране. Естественно, прежде в настройках BIOS нужно определить режим работы двух SATA-портов, относящихся к контроллеру GIGABYTE SATA2, как RAID (в противном случае доступ в меню конфигуратора RAID-массива будет невозможен).

Меню настройки RAID-контроллера GIGABYTE SATA2 довольно простое. Как мы уже отмечали, контроллер является двухпортовым и позволяет создавать RAID-массивы уровня 0 или 1. Через меню настройки контроллера можно удалить или создать RAID-массив. При создании RAID-массива имеется возможность указать его название, выбрать уровень массива (0 или 1), задать размер страйпа для RAID 0 (128, 84, 32, 16, 8 или 4K), а также определить размер массива.

Если массив создан, то какие-либо изменения в нем уже невозможны. То есть нельзя впоследствии для созданного массива изменить, например, его уровень или размер страйпа. Для этого прежде нужно удалить массив (с потерей данных), а потом создать его заново. Собственно, это свойственно не только контроллеру GIGABYTE SATA2. Невозможность изменения параметров созданных RAID-массивов - особенность всех контроллеров, которая вытекает из самого принципа реализации RAID-массива.

После того как массив на базе контроллера GIGABYTE SATA2 создан, текущую информацию о нем можно просмотреть, используя утилиту GIGABYTE RAID Configurer, которая устанавливается автоматически вместе с драйвером.

Создание RAID-массива на базе контроллера Marvell 9128

Конфигурирование RAID-контроллера Marvell 9128 возможно только через настройки BIOS платы Gigabyte GA-EX58A-UD7. Вообще, нужно сказать, что меню конфигуратора контроллера Marvell 9128 несколько сыровато и может ввести в заблуждение неискушенных пользователей. Впрочем, об этих незначительных недоработках мы расскажем чуть позже, а пока рассмотрим основные функциональные возможности контроллера Marvell 9128.

Итак, несмотря на то что этот контроллер поддерживает работу с дисками с интерфейсом SATA III, он также полностью совместим с дисками с интерфейсом SATA II.

Контроллер Marvell 9128 позволяет создать RAID-массив уровней 0 и 1 на базе двух дисков. Для массива уровня 0 можно задать размер страйпа 32 или 64 Кбайт, а также указать имя массива. Кроме того, имеется и такая опция, как Gigabyte Rounding, которая нуждается в пояснении. Несмотря на название, созвучное с именем компании-производителя, функция Gigabyte Rounding никакого отношения к ней не имеет. Более того, она никак не связана с RAID-массивом уровня 0, хотя в настройках контроллера ее можно определить именно для массива этого уровня. Собственно, это первая из тех недоработок конфигуратора контроллера Marvell 9128, о которых мы упоминали. Функция Gigabyte Rounding определена только для RAID-массива уровня 1. Она позволяет использовать для создания RAID-массива уровня 1 два диска (например, различных производителей или разные модели), емкость которых немного отличается друг от друга. Функция Gigabyte Rounding как раз и задает разницу в размерах двух дисков, применяемых для создания RAID-массива уровня 1. В контроллере Marvell 9128 функция Gigabyte Rounding позволяет установить разницу в размерах дисков 1 или 10 Гбайт.

Еще одна недоработка конфигуратора контроллера Marvell 9128 заключается в том, что при создании RAID-массива уровня 1 у пользователя имеется возможность выбора размера страйпа (32 или 64 Кбайт). Однако понятие страйпа вообще не определено для RAID-массива уровня 1.

Создание RAID-массива на базе контроллера, интегрированного в ICH10R

RAID-контроллер, интегрированный в южный мост ICH10R, является самым распространенным. Как уже отмечалось, данный RAID-контроллер 6-портовый и поддерживает не только создание массивов RAID 0 и RAID 1, но также RAID 5 и RAID 10.

Доступ в меню настройки контроллера возможен на этапе загрузки системы, для чего нужно нажать комбинацию клавиш Ctrl+I, когда появится соответствующая надпись на экране. Естественно, прежде в настройках BIOS следует определить режим работы этого контроллера как RAID (в противном случае доступ в меню конфигуратора RAID-массива будет невозможен).

Меню настройки RAID-контроллера достаточно простое. Через меню настройки контроллера можно удалить или создать RAID-массив. При создании RAID-массива можно указать его название, выбрать уровень массива (0, 1, 5 или 10), задать размер страйпа для RAID 0 (128, 84, 32, 16, 8 или 4K), а также определить размер массива.

Сравнение производительности RAID-массивов

Для тестирования RAID-массивов с помощью утилиты IOmeter мы создали сценарии нагрузки последовательного чтения, последовательной записи, выборочного чтения и выборочной записи. Размеры блоков данных в каждом сценарии нагрузки составляли следующую последовательность: 512 байт, 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 Кбайт, 1 Мбайт.

На каждом из RAID-контроллеров создавался массив RAID 0 со всеми допустимыми размерами страйпов и массив RAID 1. Кроме того, дабы иметь возможность оценить прирост производительности, получаемый от использования RAID-массива, мы также протестировали на каждом из RAID-контроллеров одиночный диск.

Итак, обратимся к результатам нашего тестирования.

Контроллер GIGABYTE SATA2

Прежде всего рассмотрим результаты тестирования RAID-массивов на базе контроллера GIGABYTE SATA2 (рис. 6-13). В общем-то контроллер оказался в буквальном смысле загадочным, а его производительность просто разочаровала.

Рис. 6. Скорость последовательных
и выборочных операций для диска
Western Digital WD1002FBYS

Рис. 7. Скорость последовательных

c размером страйпа 128 Кбайт
(контроллер GIGABYTE SATA2)

Рис. 12. Скорость последовательных
и выборочных операций для RAID 0
c размером страйпа 4 Кбайт
(контроллер GIGABYTE SATA2)

Рис. 13. Скорость последовательных
и выборочных операций
для RAID 1 (контроллер GIGABYTE SATA2)

Если посмотреть на скоростные характеристики одного диска (без RAID-массива), то максимальная скорость последовательного чтения составляет 102 Мбайт/с, а максимальная скорость последовательной записи - 107 Мбайт/с.

При создании массива RAID 0 с размером страйпа 128 Кбайт максимальная скорость последовательного чтения и записи увеличивается до 125 Мбайт/с, то есть возрастает примерно на 22%.

При размере страйпа 64, 32 или 16 Кбайт максимальная скорость последовательного чтения составляет 130 Мбайт/с, а максимальная скорость последовательной записи - 141 Мбайт/с. То есть при указанных размерах страйпа максимальная скорость последовательного чтения возрастает на 27%, а максимальная скорость последовательной записи - на 31%.

Вообще-то это маловато для массива уровня 0, и хотелось бы, чтобы максимальная скорость последовательных операций была выше.

При размере страйпа 8 Кбайт максимальная скорость последовательных операций (чтения и записи) остается примерно такой же, как и при размере страйпа 64, 32 или 16 Кбайт, однако с выборочным чтением - явные проблемы. При увеличении размера блока данных вплоть до 128 Кбайт скорость выборочного чтения (как и должно быть) возрастает пропорционально размеру блока данных. Однако при размере блока данных более 128 Кбайт скорость выборочного чтения падает практически до нуля (примерно до 0,1 Мбайт/с).

При размере страйпа 4 Кбайт падает не только скорость выборочного чтения при размере блока более 128 Кбайт, но и скорость последовательного чтения при размере блока более 16 Кбайт.

Использование массива RAID 1 на контроллере GIGABYTE SATA2 практически не изменяет (в сравнении с одиночным диском) скорость последовательного чтения, однако максимальная скорость последовательной записи уменьшается до 75 Мбайт/с. Напомним, что для массива RAID 1 скорость чтения должна возрастать, а скорость записи не должна уменьшаться в сравнении со скоростью чтения и записи одиночного диска.

На основании результатов тестирования контроллера GIGABYTE SATA2 можно сделать только один вывод. Использовать данный контроллер для создания массивов RAID 0 и RAID 1 имеет смысл только в том случае, когда все остальные RAID-контроллеры (Marvell 9128, ICH10R) уже задействованы. Хотя представить себе подобную ситуацию довольно сложно.

Контроллер Marvell 9128

Контроллер Marvell 9128 продемонстрировал гораздо более высокие скоростные характеристики в сравнении с контроллером GIGABYTE SATA2 (рис. 14-17). Собственно, различия проявляются даже при работе контроллера с одним диском. Если для контроллера GIGABYTE SATA2 максимальная скорость последовательного чтения составляет 102 Мбайт/с и достигается при размере блока данных 128 Кбайт, то для контроллера Marvell 9128 максимальная скорость последовательного чтения составляет 107 Мбайт/с и достигается при размере блока данных 16 Кбайт.

При создании массива RAID 0 с размером страйпа 64 и 32 Кбайт максимальная скорость последовательного чтения увеличивается до 211 Мбайт/с, а последовательной записи - до 185 Мбайт/с. То есть при указанных размерах страйпа максимальная скорость последовательного чтения возрастает на 97%, а максимальная скорость последовательной записи - на 73%.

Существенной разницы по скоростным показателям массива RAID 0 с размером страйпа 32 и 64 Кбайт не наблюдается, однако применение страйпа 32 Кбайт более предпочтительно, поскольку в этом случае скорость последовательных операций при размере блока менее 128 Кбайт будет немного выше.

При создании массива RAID 1 на контроллере Marvell 9128 максимальная скорость последовательных операций практически не изменяется в сравнении с одиночным диском. Так, если для одиночного диска максимальная скорость последовательных операций составляет 107 Мбайт/с, то для RAID 1 она равна 105 Мбайт/с. Также заметим, что для RAID 1 скорость выборочного чтения немного ухудшается.

В целом же нужно отметить, что контроллер Marvell 9128 обладает неплохими скоростными характеристиками и его вполне можно задействовать как для создания RAID-массивов, так и для подключения к нему одиночных дисков.

Контроллер ICH10R

RAID-контроллер, встроенный в ICH10R, оказался самым высокопроизводительным из всех протестированных нами (рис. 18-25). При работе с одиночным диском (без создания RAID-массива) его производительность фактически такая же, как и производительность контроллера Marvell 9128. Максимальная скорость последовательного чтения и записи составляет 107 Мбайт и достигается при размере блока данных 16 Кбайт.

Рис. 18. Скорость последовательных
и выборочных операций
для диска Western Digital WD1002FBYS (контроллер ICH10R)

Если говорить о массиве RAID 0 на контроллере ICH10R, то максимальная скорость последовательного чтения и записи не зависит от размера страйпа и составляет 212 Мбайт/с. От размера страйпа зависит лишь размер блока данных, при котором достигается максимальное значение скорости последовательного чтения и записи. Как показывают результаты тестирования, для RAID 0 на базе контроллера ICH10R оптимально использовать страйп размером 64 Кбайт. В этом случае максимальное значение скорости последовательного чтения и записи достигается при размере блока данных всего 16 Кбайт.

Итак, резюмируя, еще раз подчеркнем, что RAID-контроллер, встроенный в ICH10R, существенно превосходит по производительности все остальные интегрированные RAID-контроллеры. А учитывая, что он обладает и большей функциональностью, оптимально использовать именно этот контроллер и просто забыть о существовании всех остальных (если, конечно, в системе не применяются диски SATA III).

В конце прошлой недели купил комплектующие для компьютера и столкнулся с рядом проблем при настройке оборудования. Новый компьютер предназначен для хранения баз данных в офисе одной фирмы, следовательно нужен был RAID массив. Бюджет был порядка 20000 рублей, поэтому собирал на платформе AMD. Материнская плата ASUS M4A88TD-M и два одинаковых жестких диска WD 500 Gb. Для настройки RAID массива HDD подключил в разъемы SATA0 и SATA1. Создавал массив RAID 1, объединение жестких дисков с повышенной надежностью и отказоустойчивостью. Когда жесткие диски зеркалят друг друга. Рекомендации описанные ниже подходят для настройки RAID0, повышения скорости работы дисков.

Первое, зашел в BIOS. Для моей материнской платы нажатие кнопки DEL при загрузке, для плат других фирм может быть F2. В настройках конфигурации SATA переключил режим IDE на RAID. Нажал F10 для сохранения настроек и перезагрузил компьютер.

Второе, нужно включитьRAID массив. Это первый момент, на котором попал в ступор. В инструкции к материнской плате ASUS об этом ни слова не сказано. Во время загрузки компьютера нажал Ctrl+F. Открыл меню Option ROM Utility. Здесь выбрал второй пункт нажатием 2.

В этом меню нажал Ctrl+C для создания RAID. Идя по пунктам включал функции RAID Mode в положение RAID1, напротив дисков Y. Затем дважды нажал Ctrl+Y, ввел имя RAID массиву и сохранил выставленные параметры. Вышел и перезагрузил компьютер.

Теперь при загрузке компьютера видно, что в системе подключен RAID1 массив.

Третье, определил приоритет очереди загрузки с разных устройств. Для этого пришлось еще раз войти в BIOS. Привод DVD, за ним мой RAID, а последним подключаемый устройства, т.е. флешки.

На RAID массив устанавливал Windows 7. В принципе, дальнейшие советы подойдут для установки Windows XP, Vista, Server 2008 и Windows 8 на RAID массив. До начала установки зашел с другого компьютера на сайт ASUS и скачал AMD RAID driver. Драйвер RAID загрузил на флеш-диск, его не надо вставлять в USB разъем до выбора разделов жесткого диска. Образ Windows был на DVD. После этого перешел к установке ОС.

Четвертое, использовал драйвер с флешки, когда дошел до выбора раздела. Вставил флешку, нажал Загрузка и Обзор.

Во всплывшем меню выбрал каталог драйвера, операционный системы и разрядности. В моем случае Windows 7 64bit.

Установщик Windows обнаружил драйвер AMD AHCI Compatible RAID Controller. Его было достаточно, чтобы увидеть раздел жесткого диска. Вынул флеш диск из USB порта.

Здесь меня поджидала вторая загвоздка, когда не ставится Windows 7. Выбрал стандартный способ Создать, весь объем диска установщик определил как Основной. Нажал Далее и получил ошибку. Программе установки не удалось создать новый или найти существующий системный раздел. Дополнительные сведения и так далее. Когда Windosw не устанавливается из-за раздела, решение — сделать самостоятельно разбивку диска на разделы. Удалил все разделы. Нажал Shift+F10.

Пятое, нажав Shift+F10, вызвал командную строку. Shift+Alt возвращает английский язык раскладки клавиатуры на русском дистрибутиве. Ввел diskpart, команда вызова утилиты работы с диском. Следующая команда list disk. Увидел два диска в системе: диск 0 — флешка, диск 1 — RAID массив. Выбрал диск 1 командой select disk 1. Дальше ввел create partition primary size=131072, создал системный раздел размером 128 Гб. За это отвечает команда create partition primary. Команда size для определения размера диска.

Вторую часть диска определил в раздел командой create partition extended. Не использовал size, чтобы включить все оставшееся пространство во второй диск. Что в дальнейшем позволит создать Логический диск.

Выбрал первый раздел командой select partition 1. А командой active раздел помечен как активный. После этого закрыл окно командной строки. Нажал кнопку Обновить.

После обновления списка разделов увидел два диска объемом 128 Гб и 337 Гб. Выбрал первый раздел и нажал кнопку Далее.

Горячо ожидаемая надпись Установка Windows… Установка Windows прошла в обычном режиме.

Проделал несколько раз за три вечера. Некоторые попытки были с ошибками, что увеличивало время. Если останутся вопросы, пишите в комментарии. Например, нужно перезагрузить компьютер после разбития диска на новые разделы, если флешка была вставлена до установки Windows. Все выше описанное было повторено за раз, чтобы убедиться в верности алгоритма из пяти пунктов. Установка Windows 7 на RAID работает, проверено!

Читайте также:

Не ждали? Гандонография или как снимать под водой на телефон Обзор электронной книги Pocketbook Touch Обзор видеоорегистратора AdvoCam FD4 GPS