Инженеры Тест-центра CRN и приглашенные консультанты из реселлерской компании Creative Technologies New York оценивали быстродействие, экономичность, удобство обслуживания и установки, конструкцию и отказоустойчивость массивов хранения данных стандарта Fibre Channel. Поставщикам было предложено представить просто массивы дисков (just-a-bunch-of-disks, JBOD) с главным интерфейсом стандарта Fibre Channel, соответствующие 1,0625-Гбайт спецификации.
Эти массивы должны были иметь возможность работать в двухточечной конфигурации, когда центральный компьютер служит сервером массовой памяти, обеспечивая сетевую стыкуемость. Кроме того, требовалось наличие накопителей стандарта SCSI или Fibre Channel с возможностью «горячей» замены. Максимальная емкость хранения была ограничена величиной 200 Гбайт при полном снаряжении матрицы. Допускалось как оптоволоконное, так и медное соединение с главным интерфейсом. Каждый поставщик должен был предоставить и адаптер шины центрального компьютера (host bus adapter, HBA), чтобы гарантировать надлежащие быстродействие и совместимость.
Адаптеры HBA всех массивов (кроме одного) были установлены в компьютер Kayak XU фирмы Hewlett-Packard, работавший под управлением Windows NT Server 4.0 с пакетом Service Pack 3. Для массива Compaq требовалась машина той же фирмы, поэтому адаптер HBA Compaq был установлен в систему ProLiant 5000. Для подсоединения адаптеров HBA к соответствующим массивам использовались кабели, предоставленные поставщиками. В случае решения Compaq между адаптером HBA и массивом потребовалось установить концентратор с шиной Fibre Channel. Для других решений такой концентратор не применялся.
Для измерения быстродействия каждой из матриц использовалась программа Iometer версии 1998.01.05, разработанная фирмой Intel. (Сама Intel не несет ответственности за полученные при этом результаты.) Программа Iometer способна осуществлять операции чтения и записи данных с устройством памяти согласно заданному пользователем сценарию. Инженеры Тест-центра использовали сценарий в 11 шагов, каждый с собственным размером блоков данных и степенью произвольности доступа к дискам. В процессе тестирования при переходе от одного шага к другому размер блоков данных уменьшался, а произвольность доступа возрастала.
Первый из шагов имитировал непрерывный доступ, когда передаются последовательно расположенные крупные блоки данных. Последний шаг моделировал доступ к базам данных и многопользовательский доступ, для которого характерны практически случайное размещение данных и малый размер блоков. Остальные шаги отражали промежуточные состояния между этими крайними случаями. На каждом из шагов было задано равное соотношение операций чтения и записи.
Размер блока на первом шаге был задан равным 1 Мбайт; при переходе к каждому последующему шагу он уменьшался наполовину. Иными словами, на втором шаге размер блоков был равен 512 Кбайт, на третьем — 256 Кбайт и т. д. до 1 Кбайт на последнем (11) шаге.
Одновременно на каждом последующем шаге степень произвольности доступа увеличивалась на 10%. При первом шаге была нулевая произвольность доступа, при втором — 10% и т. д. до 100% при 11-м шаге.
Каждый шаг тестировался в течение двух минут. Данные, полученные на каждом из шагов в первые 30 с, отбрасывались, чтобы устранить влияние переходных эффектов. При тестировании все накопители массивов были сконфигурированы как отдельные неформатированные диски, чтобы устранить любое влияние, привносимое файловой системой; при этом выполнялся одновременный доступ ко всем томам.
При оценке удобства обслуживания тестировалась и возможность «горячей» замены; для этого инженеры извлекали накопители и повторно устанавливали при одновременном обращении к остальным томам. При оценке конструкции матриц принимались во внимание такие особенности, как организация охлаждения, безопасность и прочность корпуса.