Безпрецедентна съвместимост на сериен интерфейс. Интерфейси на твърдия диск: SCSI, SAS, Firewire, IDE, SATA Брой сектори, достъпни за потребителя

Повече от 20 години интерфейсът на паралелната шина е най-разпространеният комуникационен протокол за повечето цифрови системи за съхранение. Но с нарастването на нуждата от честотна лента и гъвкавост на системата, станаха очевидни недостатъците на двете най-често срещани технологии за паралелен интерфейс, SCSI и ATA. Липсата на съвместимост между SCSI и ATA паралелни интерфейси - различни конектори, кабели и използвани набори от инструкции - увеличава разходите за поддръжка на системата, изследвания и разработки, обучение и квалификация на нови продукти.

Към днешна дата паралелните технологии все още удовлетворяват потребителите на съвременните корпоративни системи по отношение на производителността, но нарастващата нужда от по-високи скорости, по-висока цялост на предаване на данни, намален физически размер и по-широка стандартизация поставя под въпрос способността на паралелен интерфейс без ненужни разходи, за да бъде в крак с бързо растящата производителност на процесора и скоростите на твърдия диск. Освен това, в среда на строги икономии, за предприятията става все по-трудно да намерят средства за разработване и поддържане на хетерогенни конектори на задния панел за сървърни шасита и външни дискови масиви, проверка на съвместимостта на хетерогенния интерфейс и инвентаризация на хетерогенни I/O връзки.

Използването на паралелни интерфейси е свързано и с редица други проблеми. Паралелното предаване на данни по широк кабел е обект на кръстосани смущения, което може да създаде допълнителен шум и сигнални грешки - за да избегнете този капан, трябва да намалите скоростта на сигнала или да ограничите дължината на кабела, или и двете. Прекратяването на паралелни сигнали също е свързано с определени трудности - трябва да прекъснете всяка линия поотделно, обикновено последното устройство извършва тази операция, за да предотврати отражение на сигнала в края на кабела. И накрая, големите кабели и конектори, използвани в паралелни интерфейси, правят тези технологии неподходящи за нови компактни изчислителни системи.

Представяме ви SAS и SATA

Серийните технологии като Serial ATA (SATA) и Serial Attached SCSI (SAS) преодоляват архитектурните ограничения на традиционните паралелни интерфейси. Тези нови технологии получиха името си от метода на предаване на сигнала, когато цялата информация се предава последователно (на английски сериен), в един поток, за разлика от множество потоци, които се използват в паралелни технологии. Основното предимство на серийния интерфейс е, че когато данните се прехвърлят в един поток, той се движи много по-бързо, отколкото при използване на паралелен интерфейс.

Серийните технологии комбинират много битове данни в пакети и след това ги прехвърлят по кабел със скорост до 30 пъти по-бърза от паралелните интерфейси.

SATA разширява възможностите на традиционната ATA технология, като позволява пренос на данни между дискови устройства със скорост от 1,5 GB в секунда или повече. Поради ниската си цена на гигабайт дисков капацитет, SATA ще продължи да бъде доминиращият дисков интерфейс в настолните компютри, сървърите от начално ниво и мрежовите системи за съхранение, където цената е едно от основните съображения.

SAS, наследникът на паралелния SCSI, се основава на доказаната висока функционалност на своя предшественик и обещава значително да разшири възможностите на днешните корпоративни системи за съхранение. SAS има редица предимства, които не са налични при традиционните решения за съхранение. По-специално, SAS позволява до 16 256 устройства да бъдат свързани към един порт и осигурява надеждна серийна връзка от точка до точка със скорост до 3 Gb/s.

В допълнение, по-малкият SAS конектор осигурява пълна двупортова свързаност както за 3,5" така и за 2,5" твърди дискове (досега се предлагаше само за 3,5" твърди дискове с Fibre Channel). Това е много полезна функция, когато трябва да поставите много излишни устройства в компактна система, като блейд сървър с нисък профил.

SAS подобрява адресирането и свързаността на устройствата с хардуерни разширители, които позволяват на голям брой устройства да бъдат свързани към един или повече хост контролери. Всеки разширител осигурява връзки за до 128 физически устройства, които могат да бъдат други хост контролери, други SAS разширители или дискови устройства. Тази схема се мащабира добре и ви позволява да създавате топологии в корпоративен мащаб, които лесно поддържат клъстериране с множество възли за автоматично възстановяване на системата в случай на повреда и за балансиране на натоварването.

Едно от най-големите предимства на новата серийна технология е, че интерфейсът SAS също ще бъде съвместим с по-рентабилни SATA устройства, което позволява на системните дизайнери да използват и двата типа устройства в една и съща система без допълнителни разходи за поддръжка на два различни интерфейса. По този начин интерфейсът SAS, представляващ следващото поколение SCSI технология, преодолява съществуващите ограничения на паралелните технологии по отношение на производителност, мащабируемост и наличност на данни.

Множество нива на съвместимост

Физическа съвместимост

SAS конекторът е универсален и съвместим със SATA. Това позволява както SAS, така и SATA устройствата да бъдат директно свързани към SAS системата, като по този начин позволява системата да се използва или за критични приложения, които изискват висока производителност и бърз достъп до данни, или за по-рентабилни приложения с по-ниска цена на гигабайт.

Наборът от команди SATA е подмножество от набора от команди SAS, който осигурява съвместимост между SATA устройства и SAS контролери. Въпреки това, SAS устройствата не могат да работят със SATA контролер, така че са снабдени със специални ключове на конекторите, за да се елиминира възможността за неправилна връзка.

В допълнение, сходните физически параметри на интерфейсите SAS и SATA позволяват нова универсална SAS задна платка, която поддържа както SAS, така и SATA устройства. В резултат на това няма нужда да използвате две различни задни плочи за SCSI и ATA устройства. Тази оперативна съвместимост е от полза както за производителите на задните панели, така и за крайните потребители, като намалява хардуерните и инженерните разходи.

Съвместимост на ниво протокол

Технологията SAS включва три типа протоколи, всеки от които се използва за прехвърляне на различни типове данни през сериен интерфейс, в зависимост от това кое устройство се осъществява достъп. Първият е сериен SCSI протокол (Serial SCSI Protocol SSP), който предава SCSI команди, вторият е SCSI Management Protocol (SMP), който предава контролна информация към разширителите. Третият, SATA Tunneled Protocol STP, установява връзка, която позволява изпращането на SATA команди. Използвайки тези три протокола, SAS интерфейсът е напълно съвместим със съществуващи SCSI приложения, софтуер за управление и SATA устройства.

Тази многопротоколна архитектура, комбинирана с физическата съвместимост на SAS и SATA конекторите, прави SAS технологията универсалната връзка между SAS и SATA устройствата.

Предимства за съвместимост

Съвместимостта между SAS и SATA носи редица предимства за системните дизайнери, строители и крайни потребители.

Системните дизайнери могат да използват едни и същи задни плочи, конектори и кабелни връзки поради съвместимост със SAS и SATA. Надграждането на системата от SATA към SAS всъщност е подмяна на дискови устройства. За разлика от тях, за потребителите на традиционни паралелни интерфейси преминаването от ATA към SCSI означава смяна на задните панели, конектори, кабели и устройства. Други рентабилни предимства на оперативната съвместимост на серийните технологии включват опростено сертифициране и управление на активи.

Търговците на VAR и създателите на системи могат бързо и лесно да преконфигурират персонализирани системи, като просто инсталират подходящото дисково устройство в системата. Няма нужда да работите с несъвместими технологии и да използвате специални конектори и различни кабелни връзки. Нещо повече, допълнителната гъвкавост за избор на най-доброто съотношение цена/производителност ще позволи на търговците на VAR и разработчиците на системи да диференцират по-добре своите продукти.

За крайните потребители съвместимостта със SATA и SAS означава ново ниво на гъвкавост, когато става въпрос за избор на най-доброто съотношение цена/производителност. SATA устройствата са най-доброто решение за евтини сървъри и системи за съхранение, докато SAS устройствата осигуряват максимална производителност, надеждност и съвместимост на софтуера за управление. Възможността за надграждане от SATA към SAS дискове, без да се налага закупуване на нова система, значително опростява решението за покупка, защитава инвестициите в системата и намалява общите разходи за притежание.

Съвместно разработване на SAS и SATA протоколи

На 20 януари 2003 г. Търговската асоциация на SCSI (STA) и работната група Serial ATA (SATA) II обявиха сътрудничество, за да гарантират, че технологията SAS е съвместима със SATA дискови устройства на системно ниво.

Сътрудничеството на двете организации, както и съвместните усилия на доставчиците на хранилища и комитетите по стандарти, са насочени към разработването на още по-точни насоки за съвместимост, които ще помогнат на системните дизайнери, ИТ специалистите и крайните потребители да прецизират своите системи още повече, за да постигнат оптимална производителност и надеждност и по-ниски общи разходи за притежание.

Спецификацията SATA 1.0 е одобрена през 2001 г. и днес на пазара са SATA продукти от различни производители. Спецификацията SAS 1.0 беше одобрена в началото на 2003 г., а първите продукти трябва да излязат на пазара през първата половина на 2004 г.

Накратко за съвременните RAID контролери

В момента RAID контролерите като отделно решение са фокусирани изключително върху специализиран сървърен пазарен сегмент. Всъщност всички съвременни дънни платки за потребителски компютри (не сървърни платки) имат интегрирани хардуерно-софтуерни SATA RAID контролери, чиито възможности са повече от достатъчни за потребителите на компютри. Вярно е, че трябва да имате предвид, че тези контролери са фокусирани изключително върху използването на операционната система Windows. В операционните системи от семейството на Linux RAID масивите се създават от софтуер и всички изчисления се прехвърлят от RAID контролера към централния процесор.

Сървърите традиционно използват хардуерно-софтуерни или чисто хардуерни RAID контролери. Хардуерен RAID контролер ви позволява да създавате и поддържате RAID масив без участието на операционната система и централния процесор. Такива RAID масиви се разглеждат от операционната система като един диск (SCSI диск). В този случай не е необходим специализиран драйвер - използва се стандартният (част от операционната система) SCSI диск драйвер. В тази връзка хардуерните контролери са независими от платформата, а RAID масивът се конфигурира чрез BIOS на контролера. Хардуерният RAID контролер не включва централния процесор при изчисляване на всички контролни суми и т.н., тъй като използва собствен специализиран процесор и RAM за изчисления.

Контролерите на устройства изискват специален драйвер, който замества стандартния SCSI драйвер за диск. В допълнение, софтуерните и хардуерните контролери са оборудвани с помощни програми за управление. В тази връзка софтуерните и хардуерните контролери са обвързани с конкретна операционна система. Всички необходими изчисления в този случай също се извършват от процесора на самия RAID контролер, но използването на софтуерния драйвер и помощната програма за управление ви позволява да управлявате контролера чрез операционната система, а не само през BIOS на контролера.

Предвид факта, че сървърните SCSI дискове вече са заменени от SAS дискове, всички съвременни сървърни RAID контролери са фокусирани върху поддръжката на SAS или SATA дискове, които също се използват в сървърите.

Миналата година на пазара започнаха да се появяват устройства с новия интерфейс SATA 3 (SATA 6Gb/s), който започна постепенно да заменя интерфейса SATA 2 (SATA 3Gb/s). Е, дисковете с интерфейс SAS (3 Gb / s) са заменени от дискове с интерфейс SAS 2.0 (6 Gb / s). Естествено, новият стандарт SAS 2.0 е напълно съвместим със стария стандарт.

Съответно се появиха RAID контролери с поддръжка на стандарта SAS 2.0. Изглежда, че няма смисъл да преминавате към стандарта SAS 2.0, ако дори най-бързите SAS дискове имат скорост на четене и запис не повече от 200 MB / s и честотна лента на протокола SAS (3 Gb / s или 300 MB / s) е достатъчно за тях. ?

Всъщност, когато всяко устройство е свързано към отделен порт на RAID контролера, 3 Gb/s (което на теория е 300 MB/s) са достатъчни. Въпреки това, не само отделни дискове, но и дискови масиви (дискови клетки) могат да бъдат свързани към всеки порт на RAID контролера. В този случай един SAS канал се споделя от няколко устройства наведнъж и честотната лента от 3 Gb / s вече няма да е достатъчна. Е, освен това трябва да вземете предвид наличието на SSD дискове, чиято скорост на четене и запис вече е преодоляла лентата от 300 MB / s. Например, новият Intel SSD 510 има до 500MB/s скорости на последователно четене и до 315MB/s последователни скорости на запис.

След кратко въведение в текущата ситуация на пазара на сървърни RAID контролери, нека да разгледаме спецификациите на LSI 3ware SAS 9750-8i контролера.

Спецификации на 3ware SAS 9750-8i RAID контролер

Този RAID контролер е базиран на специализиран LSI SAS2108 XOR процесор с тактова честота от 800 MHz и PowerPC архитектура. Този процесор използва 512 MB 800 MHz DDRII RAM с корекция на грешки (ECC).

Контролерът LSI 3ware SAS 9750-8i е съвместим със SATA и SAS устройства (поддържат се както твърди дискове, така и SSD) и ви позволява да свържете до 96 устройства с помощта на SAS разширители. Важно е, че този контролер поддържа както SATA 600 MB/s (SATA III), така и SAS 2 устройства.

За свързване на дискове контролерът има осем порта, които са физически комбинирани в два Mini-SAS SFF-8087 конектора (по четири порта във всеки конектор). Тоест, ако дисковете са свързани директно към портове, тогава общо осем диска могат да бъдат свързани към контролера и когато се свържат към всеки порт от клетки на дискове, общият обем на дисковете може да се увеличи до 96. Всеки от осемте порта на контролера има честотна лента от 6 Gb/s, което отговаря на стандартите SAS 2 и SATA III.

Естествено, когато свързвате дискове или дискови клетки към този контролер, ще ви трябват специализирани кабели, които имат вътрешен Mini-SAS SFF-8087 конектор в единия край и конектор в другия край, което зависи от това какво е свързано към контролера. Например, когато свързвате SAS устройства директно към контролера, трябва да използвате кабел, който има Mini-SAS SFF-8087 конектор от едната страна и четири SFF 8484 конектора от другата, които ви позволяват да свързвате директно SAS устройства. Имайте предвид, че самите кабели не са включени в пакета и трябва да бъдат закупени отделно.

Контролерът LSI 3ware SAS 9750-8i има интерфейс PCI Express 2.0 x8, който осигурява пропускателна способност от 64 Gb/s (32 Gb/s във всяка посока). Ясно е, че тази пропускателна способност е напълно достатъчна за напълно заредени осем SAS порта с честотна лента от 6 Gb/s всеки. Също така имайте предвид, че контролерът има специален конектор, който по желание може да бъде свързан към резервната батерия LSIiBBU07.

Важно е този контролер да изисква инсталиране на драйвер, тоест да е софтуерен и хардуерен RAID контролер. Поддържаните операционни системи включват Windows Vista, Windows Server 2008, Windows Server 2003 x64, Windows 7, Windows 2003 Server, MAC OS X, LinuxFedora Core 11, Red Hat Enterprise Linux 5.4, OpenSuSE 11.1, SuSE Linux Enterprise Server (SLES) 11, OpenSolaris 2009.06, VMware ESX/ESXi 4.0/4.0 update-1 и други системи от семейството на Linux. Пакетът включва също 3ware Disk Manager 2 софтуер, който ви позволява да управлявате RAID масиви чрез операционната система.

Контролерът LSI 3ware SAS 9750-8i поддържа стандартни типове RAID: RAID 0, 1, 5, 6, 10 и 50. Може би единственият тип масив, който не се поддържа, е RAID 60. Това се дължи на факта, че този контролер е способен да създадете RAID 6 масив със само пет устройства, свързани директно към всеки порт на контролера (теоретично RAID 6 може да бъде създаден с четири устройства). Съответно, за RAID 60 масив, този контролер изисква поне десет диска, които просто не съществуват.

Ясно е, че поддръжката на RAID 1 масив е без значение за такъв контролер, тъй като този тип масив се създава само на два диска, а използването на такъв контролер само за два диска е нелогично и изключително разточително. Но поддръжката за RAID 0, 5, 6, 10 и 50 масиви е много уместна. Въпреки че, може би, побързахме с RAID 0 масива. Все пак този масив няма излишък и следователно не осигурява надеждно съхранение на данни, така че рядко се използва в сървъри. Въпреки това, теоретично този масив е най-бързият по отношение на скоростта на четене и запис на данни. Нека обаче си спомним как различните видове RAID масиви се различават един от друг и какви са те.

RAID нива

Терминът „RAID масив“ се появява през 1987 г., когато американските изследователи Патерсън, Гибсън и Кац от Калифорнийския университет в Бъркли в статията си „Калъф за излишни масиви от евтини дискове, RAID“) описват как По този начин можете комбинирайте няколко евтини твърди диска в едно логическо устройство, така че резултатът да се увеличи капацитета и скоростта на системата, а отказът на отделни дискове да не доведе до отказ на цялата система. Изминаха почти 25 години от публикуването на тази статия, но технологията за изграждане на RAID масиви не е загубила своята актуалност днес. Единственото нещо, което се промени оттогава, е декодирането на акронима RAID. Факт е, че първоначално RAID масивите изобщо не са били изградени на евтини дискове, така че думата Inexpensive („евтин“) беше променена на Independent („независима“), което беше по-вярно.

Устойчивостта на грешки в RAID масивите се постига чрез резервиране, тоест част от капацитета на дисковото пространство се разпределя за сервизни цели, като става недостъпно за потребителя.

Увеличаването на производителността на дисковата подсистема се осигурява от едновременната работа на няколко диска и в този смисъл, колкото повече дискове са в масива (до определена граница), толкова по-добре.

Устройствата в масив могат да бъдат споделени чрез паралелен или независим достъп. При паралелен достъп дисковото пространство се разделя на блокове (ленти) за запис на данни. По същия начин информацията, която трябва да бъде записана на диск, се разделя на едни и същи блокове. При запис отделни блокове се записват на различни дискове, а множество блокове се записват на различни дискове едновременно, което води до повишаване на производителността при операциите по запис. Необходимата информация също се чете в отделни блокове едновременно от няколко диска, което също допринася за нарастване на производителността пропорционално на броя на дисковете в масива.

Трябва да се отбележи, че моделът за паралелен достъп се реализира само при условие, че размерът на заявката за запис на данни е по-голям от размера на самия блок. В противен случай е практически невъзможно да се напишат няколко блока паралелно. Представете си ситуация, при която размерът на един блок е 8 KB, а размерът на заявка за запис на данни е 64 KB. В този случай изходната информация се нарязва на осем блока по 8 KB всеки. Ако има масив от четири диска, тогава четири блока или 32 KB могат да бъдат записани едновременно. Очевидно в този пример скоростта на запис и четене ще бъде четири пъти по-висока, отколкото при използване на един диск. Това е вярно само за идеална ситуация, но размерът на заявката не винаги е кратен на размера на блока и броя на дисковете в масива.

Ако размерът на записаните данни е по-малък от размера на блока, тогава се прилага принципно различен модел - независим достъп. Освен това този модел може да се използва и когато размерът на данните за запис е по-голям от размера на един блок. При независим достъп всички данни от конкретна заявка се записват на отделен диск, тоест ситуацията е идентична с работата с един диск. Предимството на модела за независим достъп е, че ако постъпят няколко заявки за запис (четене) едновременно, всички те ще бъдат изпълнени на отделни дискове независимо една от друга. Тази ситуация е типична например за сървърите.

В съответствие с различните видове достъп съществуват различни типове RAID масиви, които обикновено се характеризират с нива на RAID. В допълнение към типа достъп, нивата на RAID се различават по начина, по който се поставя и формира излишната информация. Излишната информация може да бъде поставена на специален диск или разпределена на всички дискове.

Понастоящем има няколко RAID нива, които са широко използвани, те са RAID 0, RAID 1, RAID 5, RAID 6, RAID 10, RAID 50 и RAID 60. Преди обаче се използваха и RAID 2, RAID 3 и RAID 4 Тези нива на RAID в момента не се използват и съвременните RAID контролери не ги поддържат. Имайте предвид, че всички съвременни RAID контролери поддържат и функцията JBOD (Just a Bench Of Disks). В този случай не говорим за RAID масив, а просто за свързване на отделни дискове към RAID контролер.

RAID 0

RAID 0 или ивици не е строго казано RAID масив, тъй като такъв масив няма излишък и не осигурява надеждност за съхранение на данни. Въпреки това исторически той се нарича още RAID масив. RAID 0 масив (фиг. 1) може да бъде изграден върху два или повече диска и се използва, когато е необходимо да се осигури висока производителност на дисковата подсистема, а надеждността на съхранението на данни не е критична. При създаване на RAID 0 масив информацията се разделя на блокове (тези блокове се наричат ​​ленти (ивици)), които се записват едновременно на отделни дискове, тоест се създава система с паралелен достъп (ако, разбира се, размерът на блока позволява). С възможността за едновременен вход/изход от множество устройства, RAID 0 осигурява най-бързите скорости на трансфер на данни и най-ефективното използване на дисковото пространство, тъй като не се изисква място за съхраняване на контролните суми. Изпълнението на това ниво е много просто. RAID 0 се използва главно в области, където се изисква бърз трансфер на големи количества данни.

Ориз. 1. RAID 0 масив

Теоретично увеличаването на скоростта на четене и запис трябва да бъде кратно на броя на дисковете в масива.

Надеждността на RAID 0 масив очевидно е по-ниска от надеждността на всеки от дисковете поотделно и намалява с увеличаване на броя на дисковете, включени в масива, тъй като повредата на някой от тях води до неработоспособност на целия масив. Ако MTBF на всеки диск е MTTF диск, тогава MTBF на RAID 0 масив, състоящ се от ндискове, е равно на:

MTTF RAID0 = MTTF диск /n.

Ако обозначим вероятността от повреда за определен период от време на един диск през стр, след това за RAID 0 масив от ндискове, вероятността поне един диск да се повреди (вероятност от падане на масива) ще бъде:

P (падане на масива) = 1 - (1 - p) n.

Например, ако вероятността за повреда на един диск в рамките на три години експлоатация е 5%, тогава вероятността за повреда на RAID 0 масив от два диска вече е 9,75%, а на осем диска - 33,7%.

RAID 1

RAID 1 масив (Фигура 2), известен също като огледален, е масив от два диска със 100% излишък. Тоест данните са напълно дублирани (огледални), поради което се постига много високо ниво на надеждност (както и цена). Имайте предвид, че внедряването на RAID 1 не изисква предварително разделяне на дискове и данни на блокове. В най-простия случай две устройства съдържат една и съща информация и са едно логическо устройство. Когато един диск се повреди, друг изпълнява функциите си (което е абсолютно прозрачно за потребителя). Възстановяването на масив се извършва чрез просто копиране. Освен това RAID 1 теоретично трябва да удвои скоростта на четене, тъй като тази операция може да се извърши едновременно от два диска. Такава схема за съхранение на информация се използва главно в случаите, когато цената на сигурността на данните е много по-висока от цената за внедряване на система за съхранение.

Ориз. 2. RAID 1

Ако, както в предишния случай, означим вероятността от повреда за определен период от време на един диск като стр, тогава за RAID 1 масив, вероятността двата диска да се повредят едновременно (вероятността от повреда на масива) ще бъде:

p(изпускане на масив) = p 2.

Например, ако вероятността за повреда на един диск в рамките на три години експлоатация е 5%, тогава вероятността от едновременна повреда на два диска вече е 0,25%.

RAID 5

Масивът RAID 5 (Фигура 3) е устойчив на грешки дисков масив с разпределено съхранение на контролна сума. При запис потокът от данни се разделя на блокове (ленти) на ниво байт, които се записват едновременно на всички дискове в масива в цикличен ред.

Ориз. 3. RAID 5 масив

Да предположим, че масивът съдържа ндискове, а размерът на лентата е д. За всяка порция от н– Изчислява се контролната сума за 1 ивици стр.

Ивица d1записано на първия диск, ивица d2- на втория и така до ивицата d n–1, който се записва на (n–1)-ия диск. След това контролната сума се записва на n-ия диск p n, и процесът се повтаря циклично от първия диск, на който е записана лентата d n.

Процес на запис ( н–1) ивици и тяхната контролна сума се произвеждат едновременно за всички ндискове.

За изчисляване на контролната сума се използва побитова операция XOR върху записаните блокове от данни. Да, ако има нтвърди дискове и д- блок от данни (ивица), след което контролната сума се изчислява по следната формула:

p n = d 1d2 ⊕ ... d n-1 .

В случай на повреда на който и да е диск, данните върху него могат да бъдат възстановени от контролните данни и от данните, останали на здрави дискове. Всъщност, използвайки самоличностите б)А б= аИ аа = 0 , получаваме това:

p n⊕ (дкp n) = dld n⊕ ...⊕ ...⊕ d n–l⊕ (дкpn).

d k = d 1d n⊕ ...⊕ dk–1dk+1⊕ ...⊕ p n.

По този начин, ако диск с блок се повреди дк, след това може да бъде възстановен от стойността на останалите блокове и контролната сума.

В случай на RAID 5 всички дискове в масива трябва да са с еднакъв размер, но общият капацитет на дисковата подсистема, налична за запис, се намалява с точно един диск. Например, ако пет диска са 100 GB, тогава действителният размер на масива е 400 GB, тъй като 100 GB са разпределени за информация за паритет.

RAID 5 масив може да бъде изграден върху три или повече твърди диска. С увеличаване на броя на твърдите дискове в масива, излишъкът намалява. Имайте предвид също, че RAID 5 масив може да бъде възстановен, ако само едно устройство се повреди. Въпреки това, ако две устройства се повредят едновременно (или ако второто устройство се повреди, докато масивът се възстановява), тогава масивът не може да бъде възстановен.

RAID 6

Доказано е, че RAID 5 масив може да бъде възстановен, ако едно устройство се повреди. Понякога обаче трябва да осигурите по-високо ниво на надеждност, отколкото в масив RAID 5. В този случай можете да използвате масив RAID 6 (Фигура 4), който ви позволява да възстановите масива, дори ако два диска се повредят едновременно време.

Ориз. 4.RAID 6 масив

RAID 6 е подобен на RAID 5, но използва не една, а две контролни суми, които се разпределят циклично между дисковете. Първа контролна сума стрсе изчислява по същия алгоритъм като в RAID 5 масив, тоест това е операция XOR между блокове данни, записани на различни дискове:

p n = d 1d2⊕ ...⊕ d n–1.

Втората контролна сума се изчислява по различен алгоритъм. Без да навлизаме в математически подробности, да кажем, че това също е операция XOR между блокове данни, но всеки блок от данни е предварително умножен по полиномен коефициент:

q n = g 1 d 1g 2 d 2⊕ ...⊕ g n–1 d n–1 .

Съответно капацитетът на два диска в масива се разпределя за контролни суми. Теоретично RAID 6 масив може да бъде създаден на четири или повече устройства, но в много контролери той може да бъде създаден на поне пет диска.

Имайте предвид, че производителността на RAID 6 масив обикновено е с 10-15% по-ниска от производителността на RAID 5 масив (с равен брой устройства), което се причинява от голямо количество изчисления, извършени от контролера (той е необходимо за изчисляване на втората контролна сума, както и за четене и презаписване на повече дискови блокове при запис на всеки блок).

RAID 10

RAID 10 масив (Фигура 5) е комбинация от нива 0 и 1. Минималното изискване за това ниво е четири диска. В RAID 10 масив от четири диска те се комбинират по двойки в RAID 1 масиви и двата масива се комбинират като логически дискове в масив RAID 0. Възможен е и друг подход: първоначално дисковете се комбинират в RAID 0 масиви, а след това и логически дискове, базирани на тези масиви - към RAID 1 масив.

Ориз. 5. RAID 10 масив

RAID 50

RAID 50 масив е комбинация от нива 0 и 5 (Фигура 6). Минималното изискване за това ниво е шест диска. В RAID 50 масив първо се създават два RAID 5 масива (поне по три диска всеки), които след това се комбинират като логически дискове в RAID 0 масив.

Ориз. 6.RAID 50 масив

Методология за тестване на контролера LSI 3ware SAS 9750-8i

За да тестваме RAID контролера LSI 3ware SAS 9750-8i, използвахме специализиран тестов пакет IOmeter 1.1.0 (версия от 2010.12.02). Тестовата стенда имаше следната конфигурация:

  • процесор - Intel Core i7-990 (Gulftown);
  • дънна платка - GIGABYTE GA-EX58-UD4;
  • памет - DDR3-1066 (3 GB, триканален режим);
  • системен диск - WD Caviar SE16 WD3200AAKS;
  • видеокарта - GIGABYTE GeForce GTX480 SOC;
  • RAID контролер - LSI 3ware SAS 9750-8i;
  • SAS устройствата, свързани към RAID контролера, са Seagate Cheetah 15K.7 ST3300657SS.

Тестването е извършено под операционната система Microsoft Windows 7 Ultimate (32-битова).

Използвахме драйвера на Windows RAID контролера версия 5.12.00.007 и също актуализирахме фърмуера на контролера до версия 5.12.00.007.

Системното устройство беше свързано към SATA, реализиран чрез контролера, интегриран в южния мост на чипсета Intel X58, а SAS устройствата бяха свързани директно към портовете на RAID контролера с помощта на два Mini-SAS SFF-8087 -> 4 SAS кабела.

RAID контролерът е инсталиран в слота PCI Express x8 на системната платка.

Контролерът е тестван със следните RAID масиви: RAID 0, RAID 1, RAID 5, RAID 6, RAID 10 и RAID 50. Броят на устройствата, които могат да бъдат комбинирани в RAID масив, варира от минимум до осем за всеки тип масив.

Размерът на лентата на всички RAID масиви не се промени и възлиза на 256 KB.

Припомнете си, че пакетът IOmeter ви позволява да работите както с дискове, на които е създаден логически дял, така и с дискове без логически дял. Ако дискът се тества без създаден на него логически дял, тогава IOmeter работи на ниво логически блокове данни, тоест вместо на операционната система, той изпраща команди до контролера за запис или четене на LBA блокове.

Ако на диска е създаден логически дял, тогава първоначално помощната програма IOmeter създава файл на диска, който заема целия логически дял по подразбиране (по принцип размерът на този файл може да бъде променен, като го посочите в брой от 512 байта сектори), и след това вече работи с този файл, тоест чете или записва (презаписва) отделни LBA блокове в този файл. Но отново, IOmeter работи, заобикаляйки операционната система, тоест директно изпраща заявки до контролера за четене / запис на данни.

Като цяло, при тестване на HDD дискове, както показва практиката, практически няма разлика между резултатите от тестване на диск със и без създаден логически дял. В същото време смятаме, че е по-правилно да се тества без създаден логически дял, тъй като в този случай резултатите от теста не зависят от използваната файлова система (NTFA, FAT, ext и др.). Ето защо направихме тестове, без да създаваме логически дялове.

В допълнение, помощната програма IOmeter ви позволява да зададете размера на блока на заявката (Transfer Request Size) за запис/четене на данни, а тестът може да се извърши както за последователно (Sequential) четене, така и за запис, когато LBA блоковете се четат и записани последователно един след друг и за произволен (Случаен), когато LBA блоковете се четат и записват в произволен ред. Когато генерирате сценарий на натоварване, можете да зададете времето за тестване, процентното съотношение между последователни и произволни операции (Процентно произволно/Последователно разпределение), както и процентното съотношение между операциите за четене и запис (Процентно разпределение на четене/запис). В допълнение, помощната програма IOmeter ви позволява да автоматизирате целия процес на тестване и записва всички резултати в CSV файл, който след това лесно се експортира в електронна таблица на Excel.

Друга настройка, която помощната програма IOmeter ви позволява да направите, е така нареченото подравняване на блоковете за заявка за трансфер на данни (Align I / Os on) по границите на секторите на твърдия диск. По подразбиране IOmeter подравнява блоковете за заявка върху границите на сектора на диска от 512 байта, но можете също да зададете произволно подравняване. Всъщност повечето твърди дискове имат размер на сектора от 512 байта и едва наскоро започнаха да се появяват дискове с размер на сектора от 4 KB. Припомнете си, че при твърдите дискове секторът е минималният адресируем размер на данни, които могат да бъдат записани или прочетени от диск.

При тестване е необходимо да се зададе подравняването на блоковете заявки за пренос на данни според размера на дисковия сектор. Тъй като дисковете Seagate Cheetah 15K.7 ST3300657SS имат размер на сектора от 512 байта, ние използвахме 512-байтово подравняване на границата на сектора.

С помощта на тестовия пакет IOmeter измерихме скоростта на последователно четене и запис, както и скоростта на произволно четене и запис на създадения RAID масив. Размерите на предадените блокове данни са 512 байта, 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 и 1024 KB.

В горните сценарии на натоварване, времето за тестване с всяка заявка за прехвърляне на блок данни е 5 минути. Също така имайте предвид, че във всички горепосочени тестове, ние задаваме дълбочината на опашката на задачи (# от изключителни I/Os) на 4 в настройките на IOmeter, което е типично за потребителски приложения.

Резултати от тестовете

След като анализирахме резултатите от теста, бяхме изненадани от производителността на RAID контролера LSI 3ware SAS 9750-8i. И толкова много, че започнаха да преглеждат нашите скриптове, за да идентифицират грешки в тях, а след това многократно повтаряха тестване с други настройки на RAID контролера. Променихме размера на лентата и кеш режима на RAID контролера. Това, разбира се, беше отразено в резултатите, но не промени общия характер на зависимостта на скоростта на предаване на данни от размера на блока от данни. И ние просто не можахме да обясним тази зависимост. Работата на този контролер ни изглежда напълно нелогична. Първо, резултатите са нестабилни, тоест за всеки фиксиран размер на блок от данни скоростта се променя периодично и средният резултат има голяма грешка. Имайте предвид, че обикновено резултатите от тестване на дискове и контролери с помощта на помощната програма IOmeter са стабилни и се различават много малко.

Второ, с увеличаване на размера на блока, скоростта на данни трябва да се увеличи или да остане постоянна в режим на насищане (когато скоростта достигне максималната си стойност). Въпреки това, в случая на LSI 3ware SAS 9750-8i контролера, има рязък спад в скоростта на трансфер на данни с някои размери на блокове. Освен това за нас остава загадка защо при еднакъв брой дискове за RAID 5 и RAID 6 масиви скоростта на запис е по-висока от скоростта на четене. С една дума не можем да обясним работата на контролера LSI 3ware SAS 9750-8i - можем само да посочим фактите.

Резултатите от теста могат да бъдат класифицирани по различни начини. Например, по сценарии за зареждане, когато за всеки тип зареждане се дават резултатите за всички възможни RAID масиви с различен брой свързани дискове, или по типове RAID масиви, когато за всеки тип RAID масив резултатите са посочени с различен брой брой дискове в сценарии за последователно четене, последователно записване, произволно четене и произволно записване. Можете също така да класифицирате резултатите по броя на устройствата в масива, когато за всеки брой устройства, свързани към контролера, резултатите се дават за всички възможни (за даден брой устройства) RAID масиви при последователно четене и последователно записване, сценарии за произволно четене и произволно записване.

Решихме да класифицираме резултатите по типове масиви, тъй като според нас, въпреки доста големия брой графики, такова представяне е по-визуално.

RAID 0

RAID 0 масив може да бъде създаден с два до осем устройства. Резултатите от теста за RAID 0 масива са показани на фиг. 7-15.

Ориз. 7. Скорост на последователно четене и запис
с осем диска в RAID 0 масив

Ориз. 8. Скорост на последователно четене и запис
със седем устройства в RAID 0 масив

Ориз. 9. Скорост на последователно четене
и запис с шест диска в RAID 0 масив

Ориз. 10. Скорост на последователно четене и запис
с пет диска в RAID 0 масив

Ориз. 11. Скорост на последователно четене и запис
с четири диска в RAID 0 масив

Ориз. 12. Скорост на последователно четене и запис
с три диска в RAID 0 масив

Ориз. 13. Скорост на последователно четене и запис
с два диска в RAID 0 масив

Ориз. 14. Скорост на произволно четене
в RAID 0 масив

Ориз. 15. Скорост на произволно записване в RAID 0

Ясно е, че най-високата скорост на последователно четене и запис в RAID 0 масив се постига с осем устройства. Струва си да се обърне внимание на факта, че с осем и седем диска в RAID 0 масив, скоростите на последователно четене и запис са почти еднакви, а при по-малко устройства скоростта на последователно запис става по-висока от скоростта на четене.

Невъзможно е да не се отбележат характерните спадове в скоростта на последователно четене и писане за определени размери на блокове. Например при осем и шест диска в масива такива пропуски се наблюдават при размер на блок данни 1 и 64 KB, а при седем диска - с размер 1, 2 и 128 KB. Подобни повреди, но с други размери на блокове от данни, също присъстват при четири, три и два диска в масива.

По отношение на производителността на последователно четене и запис (осреднена за всички размери на блокове), RAID 0 масив превъзхожда всички други възможни масиви в конфигурации с осем, седем, шест, пет, четири, три и две устройства.

Произволният достъп в RAID 0 масив също е доста интересен. Произволната скорост на четене за всеки размер на блок от данни е пропорционална на броя на дисковете в масива, което е съвсем логично. Освен това, с размер на блок от 512 KB, за произволен брой дискове в масива има характерен спад в произволната скорост на четене.

При произволно записване за произволен брой дискове в масива, скоростта се увеличава с размера на блока от данни и няма спад в скоростта. В същото време трябва да се отбележи, че най-високата скорост в този случай се постига не с осем, а със седем диска в масива. Следващият по отношение на произволната скорост на запис е масив от шест диска, след това пет и едва след това осем диска. Освен това, по отношение на произволната скорост на запис, масив от осем диска е почти идентичен с масив от четири диска.

Производителността на произволно записване на RAID 0 масив превъзхожда всички останали налични масиви в конфигурации с осем, седем, шест, пет, четири, три и две устройства. Въпреки това, по отношение на произволната скорост на четене в конфигурация с осем диска, RAID 0 е по-нисък от масивите RAID 10 и RAID 50, но в конфигурация с по-малко устройства, RAID 0 води по скорост на произволно четене.

RAID 5

RAID 5 масив може да бъде създаден с три до осем устройства. Резултатите от теста за RAID 5 масив са показани на фиг. 16-23.

Ориз. 16. Скорост на последователно четене и запис
с осем диска в RAID 5 масив

Ориз. 17. Скорост на последователно четене и запис
със седем устройства в RAID 5 масив

Ориз. 18. Скорост на последователно четене и запис
с шест диска в RAID 5 масив

Ориз. 19. Скорост на последователно четене и запис
с пет диска в RAID 5 масив

Ориз. 20. Скорост на последователно четене и запис
с четири диска в RAID 5 масив

Ориз. 21. Скорост на последователно четене и запис
с три диска в RAID 5 масив

Ориз. 22. Скорост на произволно четене
в RAID 5 масив

Ориз. 23. Произволна скорост на запис
в RAID 5 масив

Ясно е, че най-високата скорост на четене и запис се постига с осем диска. Струва си да се отбележи, че за RAID 5 масив скоростта на последователно запис е средно по-висока от скоростта на четене. Въпреки това, за определен размер на заявката, скоростите на последователно четене могат да надвишават последователните скорости на запис.

Невъзможно е да не се отбележат характерните спадове в скоростта на последователно четене и запис за определени размери на блокове за произволен брой дискове в масива.

В конфигурации с осем диска, RAID 5 е по-бавен от RAID 0 и RAID 50 при последователна скорост на четене и запис, но превъзхожда RAID 10 и RAID 6. В конфигурации със седем устройства, RAID 5 е по-бавен при последователна скорост на четене и запис от RAID 0 и превъзхожда RAID 6 масив (други типове масиви не са възможни с даден брой устройства).

В конфигурации с шест диска RAID 5 масивът е по-нисък по скорост на последователно четене на масивите RAID 0 и RAID 50, а по скорост на последователно записване само на RAID 0 масив.

В конфигурации с пет, четири и три устройства RAID 5 е на второ място след RAID 0 по скорости на последователно четене и запис.

Произволният достъп в масив RAID 5 е подобен на произволния достъп в масив RAID 0. По този начин скоростта на произволно четене при всеки размер на блок от данни е пропорционална на броя на дисковете в масива, а при размер на блока от 512 KB има е характерен спад в произволната скорост на четене за произволен брой дискове в масива. Освен това трябва да се отбележи, че скоростта на произволно четене леко зависи от броя на дисковете в масива, тоест е приблизително еднаква за произволен брой дискове.

По отношение на произволната скорост на четене, масивът RAID 5 в конфигурации с осем, седем, шест, четири и три устройства е по-нисък от всички останали масиви. И само в конфигурация с пет диска е малко по-напред от RAID 6 масив.

По отношение на скоростта на произволно записване, RAID 5 масивът с осем диска е на второ място след RAID 0 и RAID 50 масиви, а конфигурацията със седем, пет, четири и три устройства е на второ място след RAID 0 масив.

В конфигурация с шест диска, RAID 5 е по-малък от RAID 0, RAID 50 и RAID 10 по отношение на производителността на произволно записване.

RAID 6

Контролерът LSI 3ware SAS 9750-8i ви позволява да създадете RAID 6 масив с пет до осем устройства. Резултатите от теста за RAID 6 масив са показани на фиг. 24-29.

Ориз. 24. Скорост на последователно четене и запис
с осем диска в RAID 6 масив

Ориз. 25. Скорост на последователно четене и запис
със седем устройства в RAID 6 масив

Също така отбелязваме характерните спадове в скоростите на последователно четене и запис за определени размери на блокове за произволен брой дискове в масива.

По отношение на скоростта на последователно четене, масивът RAID 6 е по-нисък от всички останали масиви в конфигурации с произволен (от осем до пет) брой устройства.

По отношение на скоростта на последователно писане ситуацията е малко по-добра. В конфигурация с осем диска, RAID 6 превъзхожда RAID 10 масив, а в конфигурация с шест диска, той превъзхожда както RAID 10, така и масивите RAID 50. на последно място по скорост на последователно записване.

Произволният достъп в масива RAID 6 е подобен на произволния достъп в масивите RAID 0 и RAID 5. По този начин скоростта на произволно четене с размер на блока от 512 KB за произволен брой дискове в масива има характерен спад в скоростта на произволно четене. Имайте предвид, че максималната произволна скорост на четене се постига с шест диска в масива. Е, със седем и осем диска скоростта на произволно четене е почти същата.

При произволно записване за произволен брой дискове в масива, скоростта се увеличава с размера на блока от данни и няма спад в скоростта. Освен това, въпреки че скоростта на произволно записване е пропорционална на броя на дисковете в масива, разликата в скоростта е незначителна.

По отношение на произволната скорост на четене, масивът RAID 6 в конфигурацията с осем и седем устройства е само пред масива RAID 5 и е по-нисък от всички други възможни масиви.

В конфигурация с шест диска, RAID 6 е по-малък от RAID 10 и RAID 50 при произволно четене, а в конфигурация с пет диска, RAID 0 и RAID 5.

По отношение на произволната скорост на запис, RAID 6 масив с произволен брой свързани дискове е по-нисък от всички други възможни масиви.

Като цяло може да се каже, че RAID 6 масивът отстъпва по производителност на масивите RAID 0, RAID 5, RAID 50 и RAID 10. Тоест по производителност този тип масиви бяха на последно място.

Ориз. 33. Скорост на произволно четене
в RAID 10 масив

Ориз. 34. Скорост на произволно записване в RAID 10

Характерно е, че в масиви от осем и шест диска скоростта на последователно четене е по-висока от скоростта на запис, а в масив от четири диска тези скорости са почти еднакви за всеки размер на блок от данни.

За RAID 10 масив, както и за всички останали разглеждани масиви, спадът в скоростите на последователно четене и запис е характерен за определени размери на блокове данни за произволен брой дискове в масива.

При произволно записване за произволен брой дискове в масива, скоростта се увеличава с размера на блока от данни и няма спад в скоростта. Освен това скоростта на произволно записване е пропорционална на броя на дисковете в масива.

По отношение на скоростта на последователно четене, масивът RAID 10 следва масивите RAID 0, RAID 50 и RAID 5 в конфигурации с осем, шест и четири диска, а по отношение на скоростта на последователно записване е по-нисък дори от масива RAID 6, т.е. , следва RAID 0 масивите, RAID 50, RAID 5 и RAID 6.

Въпреки това, по отношение на произволната скорост на четене, RAID 10 масивът превъзхожда всички останали масиви в конфигурации с осем, шест и четири устройства. Но по отношение на скоростта на произволно записване, този масив губи от RAID 0, RAID 50 и RAID 5 масиви в конфигурация с осем диска, RAID 0 и RAID 50 масиви в конфигурация с шест устройства и RAID 0 и RAID 5 масиви в конфигурация с четири задвижвания.

RAID 50

RAID 50 масив може да бъде изграден на шест или осем диска. Резултатите от теста за RAID 50 масив са показани на фиг. 35-38.

В сценария за произволно четене, както и за всички останали разгледани масиви, има характерен спад в производителността при размер на блок от 512 KB.

При произволно записване за произволен брой дискове в масива, скоростта се увеличава с размера на блока от данни и няма спад в скоростта. Освен това скоростта на произволно записване е пропорционална на броя на дисковете в масива, но разликата в скоростта е незначителна и се наблюдава само при голям (повече от 256 KB) размер на блок от данни.

По отношение на скоростта на последователно четене, RAID 50 е на второ място след RAID 0 (в конфигурации с осем и шест устройства). По отношение на скоростта на последователно записване, RAID 50 също е на второ място след RAID 0 в конфигурация с осем диска, а в конфигурация с шест устройства губи от RAID 0, RAID 5 и RAID 6.

Но по отношение на произволната скорост на четене и запис, RAID 50 масивът е на второ място след масива RAID 0 и е пред всички други възможни масиви с осем и шест диска.

RAID 1

Както вече отбелязахме, RAID 1 масив, който може да бъде изграден само на два диска, е непрактично да се използва на такъв контролер. Въпреки това, за пълнота, ние представяме резултатите за RAID 1 масив на два диска. Резултатите от теста за RAID 1 масива са показани на фиг. 39 и 40.

Ориз. 39. Скорост на последователно запис и четене в RAID 1 масив

Ориз. 40. Произволна скорост на запис и четене в RAID 1 масив

За RAID 10 масив, както и за всички останали разглеждани масиви, спадът в скоростите на последователно четене и запис е характерен за определени размери на блокове данни.

В сценария за произволно четене, както и при други масиви, има характерен спад в производителността при размер на блок от 512 KB.

При произволно записване скоростта се увеличава с размера на блока от данни и няма спадове в скоростта.

RAID 1 масив може да бъде съпоставен само с RAID 0 масив (тъй като не са възможни допълнителни масиви в случай на две устройства). Трябва да се отбележи, че RAID 1 масив губи производителност в сравнение с RAID 0 масив с две устройства във всички сценарии на натоварване, с изключение на произволно четене.

заключения

Впечатлението от тестване на контролера LSI 3ware SAS 9750-8i в комбинация с дискове Seagate Cheetah 15K.7 ST3300657SS SAS беше доста двусмислено. От една страна, той има отлична функционалност, от друга страна, спада на скоростта при определени размери на блокове данни е тревожен, което, разбира се, се отразява на производителността на RAID масивите, когато те работят в реална среда.

RAID 6, 5, 1 и 0 тестове за масиви с Hitachi SAS-2 устройства

Очевидно дните, когато приличен професионален 8-портов RAID контролер струваше доста впечатляващи пари, отминаха. Днес има решения за Serial Attached SCSI (SAS) интерфейс, които са много атрактивни както като цена и функционалност, така и като производителност. За един от тях - този преглед.

Контролер LSI MegaRAID SAS 9260-8i

По-рано вече писахме за второто поколение SAS интерфейс със скорост на предаване от 6 Gb / s и много евтин 8-портов LSI SAS 9211-8i HBA контролер, предназначен за организиране на системи за съхранение от начално ниво, базирани на най-простите SAS и SATA RAID масиви задвижва. Моделът LSI MegaRAID SAS 9260-8i ще бъде от по-висок клас - той е оборудван с по-мощен процесор с хардуерно изчисление на масиви от нива 5, 6, 50 и 60 (ROC технология - RAID On Chip), както и значително количество (512 MB) вградена SDRAM памет за ефективно кеширане на данни. Този контролер също поддържа 6 Gb/s SAS и SATA интерфейси, а самият адаптер е проектиран за PCI Express x8 версия 2.0 шина (5 Gb/s на лента), което теоретично е почти достатъчно, за да отговори на нуждите на 8 високоскоростни SAS пристанища. И всичко това - на цена на дребно от около 500 долара, тоест само няколкостотин по-скъпо от бюджетния LSI SAS 9211-8i. Самият производител, между другото, отнася това решение към серията MegaRAID Value Line, тоест икономични решения.




LSIMegaRAID SAS9260-8i 8-портов SAS контролер и неговия SAS2108 процесор с DDR2 памет

Платката LSI SAS 9260-8i е с нисък профил (форм фактор MD2), оборудвана е с два вътрешни Mini-SAS 4X конектора (всеки от тях ви позволява да свържете до 4 SAS устройства директно или повече чрез умножители на портове), проектирана е за PCI Express шина x8 2.0 и поддържа нива на RAID 0, 1, 5, 6, 10, 50 и 60, динамична SAS функционалност и др. и др. Контролерът LSI SAS 9260-8i може да бъде инсталиран както в 1U и 2U стелажни сървъри (сървъри от среден и висок клас), така и в ATX и Slim-ATX корпуси (за работни станции). RAID се поддържа от хардуерен - вграден LSI SAS2108 процесор (ядро на PowerPC на 800 MHz), с недостатъчен персонал с 512 MB DDR2 800 MHz памет с поддръжка на ECC. LSI обещава скорости на данни на процесора до 2,8 GB/s за четене и до 1,8 GB/s за запис. Сред богатата функционалност на адаптера си струва да се отбележат функциите на онлайн разширяване на капацитета (OCE), онлайн миграция на ниво RAID (RLM) (разширяване на обема и промяна на типа на масивите в движение), услуги за криптиране на SafeStore и незабавна защита изтриване (криптиране на данни на дискове и сигурно изтриване на данни), поддръжка за SSD устройства (SSD Guard технология) и др. и т.н. За този контролер е наличен допълнителен батериен модул (с него максималната работна температура не трябва да надвишава +44,5 градуса по Целзий).

Ключови спецификации на контролера LSI SAS 9260-8i

Системен интерфейсPCI Express x8 2.0 (5 GT/s), Bus Master DMA
Дисков интерфейсSAS-2 6Gb/s (поддържа протоколи SSP, SMP, STP и SATA)
Брой SAS портове8 (2 x4 Mini-SAS SFF8087), поддържа до 128 устройства чрез умножители на портове
Поддръжка на RAIDнива 0, 1, 5, 6, 10, 50, 60
процесорLSI SAS2108 ROC (PowerPC @ 800 MHz)
Вграден кеш512 MB ECC DDR2 800 MHz
Консумация на енергия, не повече24W (+3,3V и +12V захранване от PCIe слот)
Температурен диапазон на работа/съхранение0…+60 °С / −45…+105 °С
Форм фактор, размериMD2 нисък профил, 168×64,4 мм
MTBF стойност>2 милиона часа
Гаранция на производителя3 години

Типичните приложения на LSI MegaRAID SAS 9260-8i са както следва: разнообразие от видео станции (видео по заявка, видеонаблюдение, създаване и редактиране на видео, медицински изображения), високопроизводителни изчисления и архиви на цифрови данни, различни сървъри (файлови, уеб, поща, бази данни). Като цяло, по-голямата част от задачите, решени в малкия и средния бизнес.

В бяло-оранжева кутия с несериозно усмихнато зъбато лице на дама върху "заглавието" (очевидно за по-добро примамване на брадати системни администратори и груби системни строители) има контролна платка, скоби за инсталирането му в ATX, Slim-ATX кутии и т.н. ., два 4-дискови кабела с Mini-SAS конектори от единия край и обикновен SATA (без захранване) от другия (за свързване на до 8 устройства към контролера), както и CD с PDF документация и драйвери за множество версии на Windows, Linux (SuSE и RedHat), Solaris и VMware.


LSI MegaRAID SAS 9260-8i пакет контролер в кутия (миникарта с хардуерен ключ на MegaRAID Advanced Services се предлага при отделна заявка)

Софтуерните технологии LSI MegaRAID Advanced Services са налични за контролера LSI MegaRAID SAS 9260-8i със специален хардуерен ключ (предлага се отделно): MegaRAID Recovery, MegaRAID CacheCade, MegaRAID FastPath, LSI SafeStore Encryption Services (разглеждането им е извън обхвата на тази статия ). По-специално, по отношение на подобряването на производителността на масив от традиционни дискове (HDD), използващи добавено към системата твърдо устройство (SSD), технологията MegaRAID CacheCade ще бъде полезна, с която SSD действа като кеш от второ ниво за HDD масивът (аналог на хибридно решение за HDD), в някои случаи осигуряващ увеличение на производителността на дисковата подсистема до 50 пъти. Интерес представлява и решението MegaRAID FastPath, което намалява забавянето на I/O обработката на процесора SAS2108 (чрез деактивиране на оптимизацията на HDD), което ви позволява да ускорите масива от множество SSD устройства, свързани директно към SAS 9260 -8i портове.

По-удобно е да конфигурирате, настройвате и поддържате контролера и неговите масиви в корпоративния мениджър в средата на операционната система (настройките в менюто BIOS Setup на самия контролер не са достатъчно богати - налични са само основни функции). По-специално, в мениджъра, с няколко щраквания на мишката, можете да организирате всеки масив и да зададете неговите оперативни политики (кеширане и т.н.) - вижте екранните снимки.




Примерни екранни снимки на мениджъра на Windows за конфигуриране на нива на RAID 5 (отгоре) и 1 (отдолу).

Тестване

За да проучим базовата производителност на LSI MegaRAID SAS 9260-8i (без хардуерния ключ MegaRAID Advanced Services и свързаните с него технологии), използвахме пет високопроизводителни SAS устройства със скорост на шпиндела 15K rpm и поддръжка за интерфейса SAS-2 ( 6 Gb / c) - Hitachi Ultrastar 15K600 HUS156030VLS600 с капацитет 300 GB.


Твърд диск Hitachi Ultrastar 15K600 без горен капак

Това ще ни позволи да тестваме всички основни нива на масиви - RAID 6, 5, 10, 0 и 1, и то не само с минималния брой дискове за всеки от тях, но и "за растеж", тоест при добавяне диск към втория от 4-каналните SAS портове на ROC чипа. Имайте предвид, че героят на тази статия има опростен аналог - 4-портов LSI MegaRAID SAS 9260-4i контролер, базиран на същата елементна база. Следователно нашите тестове на 4-дискови масиви са еднакво приложими за него.

Максималната скорост на последователно четене/запис на полезен товар за Hitachi HUS156030VLS600 е около 200 MB/s (вижте диаграмата). Средно време за произволен достъп при четене (според спецификациите) - 5,4 ms. Вграден буфер - 64 MB.


Графика на скоростта на последователно четене/запис на Hitachi Ultrastar 15K600 HUS156030VLS600

Тестовата система беше базирана на процесор Intel Xeon 3120, дънна платка с чипсет Intel P45 и 2 GB DDR2-800 памет. SAS контролерът е инсталиран в слот PCI Express x16 v2.0. Тестовете бяха проведени под операционните системи Windows XP SP3 Professional и Windows 7 Ultimate SP1 x86 (чисти американски версии), тъй като техните сървърни копия (съответно Windows 2003 и 2008) не позволяват някои от бенчмарковете и скриптовете, които използвахме за работа . Използваните тестове бяха AIDA64, ATTO Disk Benchmark 2.46, Intel IOmeter 2006, Intel NAS Performance Toolkit 1.7.1, C'T H2BenchW 4.13/4.16, HD Tach RW 3.0.4.0 и PCMark0 Vantage на Futuremark. Тестовете бяха проведени както върху неразпределени томове (IOmeter, H2BenchW, AIDA64), така и върху форматирани дялове. В последния случай (за NASPT и PCMark) резултатите бяха взети както за физическото начало на масива, така и за неговата среда (обемове от масиви с максимален наличен капацитет бяха разделени на две равни логически дяла). Това ни позволява да оценим по-адекватно производителността на решенията, тъй като най-бързите първоначални секции от томове, върху които се извършват бенчмаркове на файлове от повечето браузъри, често не отразяват ситуацията в други секции на диска, които също могат да се използват много активно в реална работа.

Всички тестове бяха извършени пет пъти и резултатите бяха осреднени. Ще разгледаме по-отблизо нашата актуализирана методология за оценка на професионални дискови решения в отделна статия.

Остава да добавим, че в този тест използвахме фърмуера на контролера версия 12.12.0-0036 и драйвери версия 4.32.0.32. Кеширането за запис и четене за всички масиви и устройства е активирано. Може би използването на по-модерен фърмуер и драйвери ни спаси от странностите, наблюдавани в резултатите от ранните тестове на същия контролер. В нашия случай подобни инциденти не се наблюдаваха. Въпреки това, ние също не използваме скрипта FC-Test 1.0, което е много съмнително по отношение на надеждността на резултатите (което в определени случаи същите колеги „искат да нарекат объркване, колебание и непредсказуемост“) в нашия пакет, тъй като многократно сме забелязвали неуспеха му в някои файлови модели (по-специално, набори от много малки, по-малко от 100 KB файлове).

Графиките по-долу показват резултатите за 8 конфигурации на масива:

  1. RAID 0 от 5 диска;
  2. RAID 0 от 4 диска;
  3. RAID 5 от 5 диска;
  4. RAID 5 от 4 диска;
  5. RAID 6 от 5 диска;
  6. RAID 6 от 4 диска;
  7. RAID 1 от 4 диска;
  8. RAID 1 от 2 диска.

Под RAID 1 масив от четири диска (вижте екранната снимка по-горе), LSI очевидно означава ивица + огледален масив, обикновено наричан RAID 10 (това също се потвърждава от резултатите от теста).

Резултати от тестовете

За да не претоварваме уеб страницата за преглед с безброй набори от диаграми, понякога неинформативни и уморителни (с което някои "бесни колеги" често грешат :)), ние обобщихме подробните резултати от някои тестове в маса. Тези, които желаят да анализират тънкостите на нашите резултати (например да разберат поведението на подсъдимите в най-критичните задачи за себе си), могат да направят това сами. Ще се съсредоточим върху най-важните и ключови резултати от тестовете, както и върху средните показатели.

Първо, нека разгледаме резултатите от "чисто физически" тестове.

Средното време за произволен достъп за четене на едно устройство Hitachi Ultrastar 15K600 HUS156030VLS600 е 5,5 ms. Въпреки това, когато ги организирате в масиви, този индикатор се променя леко: намалява (поради ефективно кеширане в контролера LSI SAS9260) за „огледални“ масиви и се увеличава за всички останали. Най-голямо увеличение (около 6%) се наблюдава при масиви от ниво 6, тъй като контролерът трябва да има достъп до най-голям брой дискове едновременно (три за RAID 6, два за RAID 5 и един за RAID 0, тъй като достъпът в този Тестът се извършва в блокове от само 512 байта, което е значително по-малко от размера на блоковете за разпределяне на масиви).

Ситуацията с произволен достъп до масиви по време на запис (блокове от 512 байта) е много по-интересна. За един диск този параметър е около 2,9 ms (без кеширане в хост контролера), но в масиви на контролера LSI SAS9260 виждаме значително намаляване на този индикатор поради добро кеширане на запис в 512 MB SDRAM буфера на контролера. Интересното е, че най-драматичният ефект се получава при RAID 0 масиви (времето за произволен достъп по време на запис намалява с почти порядък в сравнение с едно устройство)! Това несъмнено би трябвало да има благоприятен ефект върху производителността на такива масиви при редица сървърни задачи. В същото време, дори при масиви с изчисления на XOR (тоест високо натоварване на процесора SAS2108), произволните достъпи за запис не водят до очевиден спад на производителността - отново благодарение на мощния кеш на контролера. Естествено, RAID 6 тук е малко по-бавен от RAID 5, но разликата между тях по същество е незначителна. Бях донякъде изненадан от поведението на едно „огледало“ в този тест, което показа най-бавния произволен достъп при писане (може би това е „характеристика“ на микрокода на този контролер).

Линейните (последователни) графики на скоростта на четене и запис (в големи блокове) за всички масиви нямат никакви особености (те са почти идентични за четене и запис, при условие че е активирано кеширането на запис на контролера) и всички те са мащабирани според броя на дискове, участващи паралелно в „полезния“ процес. Тоест за петдискови RAID 0 дискове скоростта се "удвоява" в сравнение с един диск (достига 1 GB / s!), за RAID 5 с пет диска се удвоява, за RAID 6 - "тройно" (утроява , разбира се :)), за RAID 1 от четири диска се удвоява (без "y2eggs"! :)), а за обикновено огледало дублира графиките на един диск. Този модел е ясно видим, по-специално по отношение на максималната скорост на четене и запис на истински големи (256 MB) файлове в големи блокове (от 256 KB до 2 MB), което ще илюстрираме с диаграма на ATTO Disk Benchmark 2.46 тест (резултатите от този тест за Windows 7 и XP са почти идентични).

Тук само случаят на четене на файлове на RAID 6 масив от 5 диска неочаквано изпадна от общата картина (резултатите бяха многократно препроверени). Въпреки това, за четене в блокове от 64 KB, скоростта на този масив набира своите 600 MB / s. Така че нека да отпишем този факт като "характеристика" на текущия фърмуер. Също така отбелязваме, че при писане на реални файлове скоростта е малко по-висока поради кеширане в голям буфер на контролера и разликата с четенето е по-забележима, колкото по-ниска е действителната линейна скорост на масива.

Що се отнася до скоростта на интерфейса, обикновено измервана като запис и четене в буфер (множество достъпи до един и същ адрес на дисков обем), тук трябва да посочим, че тя се оказа еднаква за почти всички масиви поради включването на кеша на контролера за тези масиви (вж. таблицата). По този начин производителността на запис за всички участници в нашия тест възлизаше на приблизително 2430 MB / s. Имайте предвид, че шината PCI Express x8 2.0 теоретично дава скорост от 40 Gb / s или 5 Gb / s, но според полезни данни теоретичната граница е по-ниска - 4 Gb / s, което означава, че в нашия случай контролерът наистина работи според версия 2.0 на PCIe шината. Така измерените 2,4 GB/s, очевидно, са реалната честотна лента на вградената памет на контролера (памет DDR2-800 с 32-битова шина за данни, както може да се види от конфигурацията на ECC чиповете на платката , теоретично дава до 3,2 GB/s). При четене на масиви, кеширането не е толкова "изчерпателно", колкото при писане, следователно скоростта на "интерфейса", измерена в помощните програми, обикновено е по-ниска от скоростта на четене на кеша на контролера (типично 2,1 GB / s за масиви от нива 5 и 6) , а в някои случаи "спада" до скоростта на четене на буфера на самите твърди дискове (около 400 MB/s за един твърд диск, вижте графиката по-горе), умножено по броя на "последователните" дискове в масива (точно това са случаите на RAID 0 и 1 от нашите резултати).

Е, разбрахме "физиката" в първо приближение, време е да преминем към "лириката", тоест към тестовете на "истинските" момчета от приложението. Между другото, ще бъде интересно да разберете дали производителността на масивите се мащабира при изпълнение на сложни потребителски задачи толкова линейно, колкото се мащабира при четене и писане на големи файлове (вижте диаграмата на теста ATTO точно по-горе). Любознателният читател, надявам се, вече е успял да предвиди отговора на този въпрос.

Като „салата“ към нашата „лирична“ част от храненето, ще сервираме настолни дискови тестове от пакетите PCMark Vantage и PCMark05 (съответно под Windows 7 и XP), както и подобен тест за „track“ приложение от пакета H2BenchW 4.13 на авторитетното немско списание C'T. Да, тези тестове първоначално са предназначени за оценка на твърди дискове на настолни компютри и евтини работни станции. Те емулират изпълнението на типични задачи на усъвършенстван персонален компютър на дискове - работа с видео, аудио, фотошоп, антивирус, игри, суап файлове, инсталиране на приложения, копиране и запис на файлове и т.н. Следователно техните резултати не трябва да се вземат в контекста на тази статия.като върховната истина - в края на краищата други задачи се изпълняват по-често на многодискови масиви. Независимо от това, в светлината на факта, че самият производител позиционира този RAID контролер, включително за относително евтини решения, такъв клас тестови задачи е доста способен да характеризира определена част от приложенията, които действително ще се изпълняват на такива масиви (същата работа с видео, професионална обработка на графики, смяна на ОС и ресурсоемки приложения, копиране на файлове, антивирус и др.). Следователно значението на тези три изчерпателни показателя в нашия цялостен пакет не бива да се подценява.

В популярния PCMark Vantage средно (виж диаграмата) наблюдаваме много забележителен факт - производителността на това многодисково решение почти не зависи от типа на използвания масив! Между другото, в определени граници това заключение е валидно и за всички отделни тестови песни (типове задачи), включени в пакетите PCMark Vantage и PCMark05 (вижте таблицата за подробности). Това може да означава или че алгоритмите на фърмуера на контролера (с кеш и дискове) почти не отчитат спецификата на работата на приложения от този тип, или че основната част от тези задачи се изпълняват в кеш паметта на самия контролер (и най-вероятно наблюдаваме комбинация от тези два фактора). Въпреки това, за последния случай (тоест изпълнението на песни до голяма степен в кеша на RAID контролера) средната производителност на решенията не е толкова висока - сравнете тези данни с резултатите от теста на някакъв "настолен компютър" ("чипсет ") 4-дискови RAID 0 масиви и 5 и евтини единични SSD на SATA 3 Gb/s шина (вижте прегледа). Ако в сравнение с обикновен "чипсет" 4-дисков RAID 0 (освен това на два пъти по-бавни твърди дискове от използвания тук Hitachi Ultrastar 15K600), LSI SAS9260 масивите са по-малко от два пъти по-бързи в тестовете на PCMark, тогава сравнително дори не най-бързите "бюджетен" един SSD, всички те определено губят! Резултатите от теста на диска PCMark05 дават подобна картина (вижте таблицата; няма смисъл да чертаете отделна диаграма за тях).

Подобна картина (с някои резерви) за масиви, базирани на LSI SAS9260, може да се види в друг бенчмарк на приложението "track" - C'T H2BenchW 4.13. Тук само двата най-бавни (по отношение на структурата) масива (RAID 6 от 4 диска и обикновено „огледало“) са забележимо зад всички останали масиви, чиято производителност, очевидно, достига това „достатъчно“ ниво, когато вече не почива върху дисковата подсистема и в ефективността на процесора SAS2108 с кеша на контролера за тези сложни последователности за достъп. И в този контекст можем да се радваме, че производителността на масиви, базирани на LSI SAS9260 в задачи от този клас почти не зависи от типа на използвания масив (RAID 0, 5, 6 или 10), което ви позволява да използвате повече надеждни решения, без да се компрометира крайната производителност.

Въпреки това, „не всичко е Масленица“ - ако променим тестовете и проверим работата на масиви с реални файлове във файловата система NTFS, тогава картината ще се промени драстично. И така, в теста Intel NASPT 1.7, много от „предварително инсталираните“ сценарии на който са доста пряко свързани със задачи, типични за компютри, оборудвани с контролер LSI MegaRAID SAS9260-8i, разположението на масива е подобно на това, което наблюдавахме в теста ATTO при четене и запис на големи файлове - скоростта нараства пропорционално с нарастването на "линейната" скорост на масивите.

В тази диаграма ние показваме средна стойност от всички тестове и модели на NASPT, докато в таблицата можете да видите подробните резултати. Нека подчертая, че стартирахме NASPT както под Windows XP (това обикновено правят много браузъри), така и под Windows 7 (което поради някои характеристики на този тест се прави по-рядко). Факт е, че Seven (и неговият "голям брат" Windows 2008 Server) използват по-агресивни алгоритми за собствено кеширане при работа с файлове от XP. В допълнение, копирането на големи файлове в "Седемте" се извършва главно в блокове от 1 MB (XP, като правило, работи в блокове от 64 KB). Това води до факта, че резултатите от "файловия" тест Intel NASPT се различават значително в Windows XP и Windows 7 - при последния те са много по-високи, понякога повече от два пъти! Между другото, сравнихме резултатите от NASPT (и други тестове на нашия пакет) под Windows 7 с 1 GB и 2 GB инсталирана системна памет (има информация, че при големи количества системна памет, кеширане на дискови операции в Windows 7 се увеличава и резултатите от NASPT стават още по-високи), но в рамките на грешката на измерването не открихме никаква разлика.

Оставяме дебата за това коя ОС (по отношение на политиките за кеширане и т.н.) е „по-добра“ за тестване на дискове и RAID контролери за дискусионната тема на тази статия. Ние вярваме, че е необходимо да се тестват задвижвания и решения, базирани на тях, в условия, които са максимално близки до реалните ситуации на тяхната експлоатация. Ето защо според нас получените от нас резултати и за двете операционни системи са с еднаква стойност.

Но да се върнем към графиката за средна производителност на NASPT. Както можете да видите, разликата между най-бързия и най-бавния от масивите, които тествахме тук, е средно малко по-малко от три пъти. Това, разбира се, не е петкратна разлика, както при четене и писане на големи файлове, но също така е много забележима. Масивите всъщност са разположени пропорционално на тяхната линейна скорост и това е добра новина: това означава, че процесорът LSI SAS2108 обработва данни доста бързо, почти без да създава тесни места, когато масивите от нива 5 и 6 работят активно.

Честно казано, трябва да се отбележи, че NASPT също има модели (2 от 12), в които се наблюдава същата картина като в PCMark с H2BenchW, а именно, че производителността на всички тествани масиви е почти еднаква! Това са Office Productivity и Dir Copy to NAS (вижте таблицата). Това е особено очевидно под Windows 7, въпреки че за Windows XP тенденцията на "конвергенция" е очевидна (в сравнение с други модели). Въпреки това, в PCMark с H2BenchW има модели, при които има увеличение на производителността на масива пропорционално на тяхната линейна скорост. Така че всичко не е толкова просто и недвусмислено, колкото някои биха искали.

Първо исках да обсъдя диаграма с общата производителност на масивите, осреднена за всички тестове на приложения (PCMark + H2BenchW + NASPT + ATTO), тоест тази:

Тук обаче няма какво много да се обсъжда: виждаме, че поведението на масивите на контролера LSI SAS9260 в тестове, които емулират работата на определени приложения, може да варира драстично в зависимост от използваните сценарии. Ето защо е по-добре да направите заключения за ползите от конкретна конфигурация въз основа на това какви задачи ще изпълнявате едновременно. И още един професионален тест може значително да ни помогне в това - синтетични шаблони за IOmeter, емулиращи това или онова натоварване на системата за съхранение.

Тестове в IOmeter

В този случай ще пропуснем обсъждането на многобройни модели, които внимателно измерват скоростта на работа в зависимост от размера на блока за достъп, процента на записвания, процента на произволни достъпи и т.н. Това всъщност е чиста синтетика, предоставяйки малко полезни практичен информация и представляваща интерес по-скоро чисто теоретично. В крайна сметка, ние вече изяснихме основните практически точки по отношение на „физиката“ по-горе. За нас е по-важно да се съсредоточим върху шаблони, които емулират реална работа – сървъри от различен тип, както и файлови операции.

За да емулираме сървъри като файлов сървър, уеб сървър и база данни (сървър за бази данни), използвахме добре познатите модели със същото име, предложени наведнъж от Intel и StorageReview.com. За всички случаи тествахме масиви с дълбочина на командната опашка (QD) от 1 до 256 със стъпка 2.

В модела „База данни“, който използва произволен достъп до диска в блокове от 8 KB в рамките на целия обем на масива, може да се наблюдава значително предимство на масиви без паритет (тоест RAID 0 и 1) с дълбочина на опашката от команди 4 или по-висока, докато всички проверени за четност масиви (RAID 5 и 6) демонстрират много сходна производителност (въпреки двойната разлика между тях в скоростта на линейни достъпи). Ситуацията се обяснява просто: всички масиви с паритет показаха сходни стойности в тестовете за средното време за произволен достъп (вижте диаграмата по-горе) и именно този параметър определя главно производителността в този тест. Интересно е, че производителността на всички масиви нараства почти линейно с увеличаване на дълбочината на командната опашка до 128 и само при QD=256, в някои случаи, можете да видите намек за насищане. Максималната производителност на масивите с четност при QD = 256 беше около 1100 IOps (операции в секунда), тоест процесорът LSI SAS2108 изразходва по-малко от 1 ms за обработка на една част от данни от 8 KB (около 10 милиона еднобайтови XOR операции в секунда за RAID 6; разбира се, процесорът изпълнява и други I/O и кеш задачи паралелно).

В модела на файловия сървър, който използва блокове с различни размери за произволен достъп за четене и запис до масива в целия му обем, наблюдаваме картина, подобна на DataBase, с тази разлика, че тук петдискови масиви с паритет (RAID 5 и 6) забележимо превъзхождат своите 4-дискови колеги и в същото време демонстрират почти идентична производителност (около 1200 IOps при QD=256)! Очевидно добавянето на пето устройство към втория от двата 4-лентови SAS порта на контролера по някакъв начин оптимизира изчислителното натоварване на процесора (поради I/O операции?). Може да си струва да сравните 4-дискови масиви по отношение на скоростта, когато устройствата са свързани по двойки към различни конектори на Mini-SAS контролер, за да се идентифицира оптималната конфигурация за организиране на масиви на LSI SAS9260, но това е задача за друга статия .

В шаблона на уеб сървъра, където според намерението на създателите му няма операции по запис на диск като клас (и оттам изчисляване на XOR функции за запис), картината става още по-интересна. Факт е, че и трите петдискови масива от нашия комплект (RAID 0, 5 и 6) показват идентична производителност тук, въпреки забележимата разлика между тях по отношение на линейното четене и изчисленията на паритета! Между другото, същите три масива, но от 4 диска, също са идентични по скорост един на друг! И само RAID 1 (и 10) отпада от картината. Защо това се случва е трудно да се прецени. Може би контролерът има много ефективни алгоритми за избор на "добри дискове" (тоест тези от пет или четири диска, от които на първо място идват необходимите данни), което в случая на RAID 5 и 6 увеличава вероятността данните да пристигнат от плочите по-рано, подготвяйки процесора предварително за необходимите изчисления (помислете за дълбоката опашка от команди и големия буфер DDR2-800). И това в крайна сметка може да компенсира забавянето, свързано с изчисленията на XOR, и да ги изравни „случайно“ с „обикновен“ RAID 0. Във всеки случай контролерът LSI SAS9260 може да бъде похвален само за изключително високите си резултати (около 1700 IOps за 5- дискови масиви с QD=256) в шаблона на уеб сървъра за масиви с паритет. За съжаление, проблемът беше много лошото представяне на двудисковото „огледало“ във всички тези сървърни модели.

Моделът на уеб сървъра се отразява от нашия собствен модел, който емулира произволно четене на малки (64 KB) файлове в рамките на цялото пространство на масива.

Отново резултатите бяха обединени в групи - всички 5-дискови масиви са идентични помежду си по отношение на скоростта и преднината в нашето "състезание", 4-дисков RAID 0, 5 и 6 също не могат да бъдат разграничени един от друг по отношение на производителност и само "DSLR" изпадат от общите маси (между другото, 4-дисков "рефлекс", тоест RAID 10 е по-бърз от всички други 4-дискови масиви - очевидно поради същото "избиране на добър диск” алгоритъм). Подчертаваме, че тези закономерности са валидни само за голяма дълбочина на командната опашка, докато при малка опашка (QD=1-2) ситуацията и лидерите могат да бъдат напълно различни.

Всичко се променя, когато сървърите работят с големи файлове. В условията на съвременно "по-тежко" съдържание и нови "оптимизирани" операционни системи като Windows 7, 2008 Server и др. работата с мегабайтни файлове и 1 MB блокове данни става все по-важна. В тази ситуация нашият нов модел, който емулира произволно четене на 1-MB файлове в рамките на целия диск (подробности за новите модели ще бъдат описани в отделна статия за методологията), е полезен, за да се оцени по-пълно сървъра потенциал на контролера LSI SAS9260.

Както можете да видите, 4-дисковото "огледало" тук вече не оставя на никого надежда за лидерство, ясно доминиращо във всеки ред на команди. Производителността му също първо расте линейно с дълбочината на опашката с команди, но с QD=16 за RAID 1, тя се насища (около 200 MB/s). Малко "по-късно" (при QD=32) се получава "насищане" на производителността в масиви, които са по-бавни в този тест, сред които "сребро" и "бронз" трябва да бъдат дадени на RAID 0, а масивите с паритет се оказват бъдете аутсайдери, губейки дори преди брилянтен RAID 1 от два диска, който се оказва неочаквано добър. Това ни води до заключението, че дори при четене изчислителното натоварване XOR на процесора LSI SAS2108 при работа с големи файлове и блокове (подредени произволно) е много натоварващо за него, а за RAID 6, където всъщност се удвоява, понякога дори прекомерно - производителността на решенията едва надвишава 100 MB / s, тоест 6-8 пъти по-ниска, отколкото при линейно четене! „Прекомерният“ RAID 10 очевидно е по-изгодно да се използва тук.

При случайно записване на малки файлове, картината отново е поразително различна от това, което видяхме по-рано.

Факт е, че тук производителността на масивите практически не зависи от дълбочината на опашката от команди (очевидно се отразява огромният кеш на контролера LSI SAS9260 и доста големи кешове на самите твърди дискове), но се променя драстично с типа от масива! Безспорните лидери тук са "простите" за процесора RAID 0 и "бронзовите" с повече от двукратна загуба от лидера - в RAID 10. Всички масиви с паритет образуваха много тясна единична група с двудисков SLR) , като три пъти губи от лидерите. Да, това определено е голямо натоварване на процесора на контролера. Въпреки това, честно казано, не очаквах такъв „провал“ от SAS2108. Понякога дори мекият RAID 5 на "чипсет" SATA контролер (с кеширане на Windows и изчисление с помощта на централния процесор на компютъра) може да работи по-бързо ... Въпреки това, контролерът все още извежда "своите" 440-500 IOps стабилно - сравнете това с диаграма на средното време за достъп за запис в началото на раздела с резултати.

Преходът към произволно записване на големи файлове от 1 MB води до увеличаване на показателите за абсолютна скорост (за RAID 0 - почти до стойностите за произволно четене на такива файлове, тоест 180-190 MB / s) , но цялостната картина остава почти непроменена - масиви с паритет много пъти по-бавен от RAID 0.

Картината за RAID 10 е любопитна – производителността му пада с увеличаване на дълбочината на опашката с команди, макар и не много. За други масиви такъв ефект няма. Двудисковото "огледало" тук отново изглежда скромно.

Сега нека разгледаме моделите, при които файловете се четат и записват на диск в еднакъв брой. Такива натоварвания са типични по-специално за някои видео сървъри или по време на активно копиране / дублиране / архивиране на файлове в рамките на същия масив, както и в случай на дефрагментация.

Първо - файлове от 64 KB произволно в целия масив.

Тук известна прилика с резултатите от модела DataBase е очевидна, въпреки че абсолютните скорости на масивите са три пъти по-високи и дори при QD=256 вече се забелязва известно насищане на производителността. По-високият (в сравнение с модела на базата данни) процент на операциите за запис в този случай води до факта, че масивите с паритет и двудисково „огледало“ стават очевидни аутсайдери, значително по-ниски по скорост на RAID 0 и 10 масиви.

При превключване към 1 MB файлове този модел обикновено остава, въпреки че абсолютните скорости се утрояват приблизително, а RAID 10 става бърз като лента от 4 диска, което е добра новина.

Последният модел в тази статия ще бъде случаят на последователно (за разлика от произволното) четене и запис на големи файлове.

И тук вече много масиви успяват да се ускорят до много прилични скорости в района на 300 MB / s. И въпреки че разликата между лидера (RAID 0) и аутсайдера (двудисков RAID 1) остава повече от два пъти (имайте предвид, че тази разлика е петкратна за линейно четене или запис!), RAID 5, който е сред първите три, и останалите XOR масиви, които са се изтеглили, не може да не са обнадеждаващи. В крайна сметка, съдейки по списъка с приложения на този контролер, който самият LSI дава (вижте началото на статията), много целеви задачи ще използват този специфичен характер на достъпа до масива. И определено си струва да се обмисли.

В заключение ще дам крайна диаграма, в която показателите на всички гореспоменати тестови модели на IOmeter са осреднени (геометрично по всички шаблони и командни опашки, без коефициенти на тежест). Любопитно е, че ако усредняването на тези резултати във всеки модел се извършва аритметично с коефициенти на тежест 0,8, 0,6, 0,4 и 0,2 за командни опашки 32, 64, 128 и 256, съответно (която условно дълбочината на опашката от команди в цялостната работа на устройствата), тогава крайният (за всички модели) нормализиран индекс на производителност на масива в рамките на 1% ще съвпада със средното геометрично.

И така, средната „болнична температура“ в нашите модели за теста на IOmeter показва, че няма изход от „физика с математика“ - RAID 0 и 10 определено са начело. В някои случаи прилична производителност, като цяло, тя не може да "достигне" такива масиви до нивото на обикновена "ивица". В същото време е интересно, че конфигурациите с 5 диска ясно добавят в сравнение с конфигурациите с 4 диска. По-специално, 5-дисков RAID 6 е недвусмислено по-бърз от 4-дисков RAID 5, въпреки че по отношение на „физиката“ (време за произволен достъп и линейна скорост на достъп) те всъщност са идентични. „Огледалото“ с два диска също беше разочароващо (средно е еквивалентен на 4-дисков RAID 6, въпреки че две XOR изчисления на бит данни не са необходими за огледало). Обаче обикновеното „огледало“ очевидно не е целеви масив за достатъчно мощен 8-портов SAS контролер с голям кеш и мощен процесор „на борда“. :)

Информация за цените

8-портовият SAS контролер LSI MegaRAID SAS 9260-8i с пълен комплект се предлага на цена от около $500, което може да се счита за доста атрактивно. Неговият опростен 4-портов аналог е дори по-евтин. По-точна текуща средна цена на дребно на устройството в Москва, релевантна към момента, в който прочетете тази статия:

LSI SAS 9260-8iLSI SAS 9260-4i
$571() $386()

Заключение

Обобщавайки казаното по-горе, можем да заключим, че няма да рискуваме да даваме унифицирани препоръки „за всички“ на 8-портовия LSI MegaRAID SAS9260-8i контролер. Всеки сам трябва да си направи изводите за необходимостта да го използва и да конфигурира определени масиви с негова помощ – строго въз основа на класа задачи, които се предполага, че ще бъдат стартирани. Факт е, че в някои случаи (при някои задачи) това евтино "мегамонстър" е в състояние да покаже изключителна производителност дори на масиви с двоен паритет (RAID 6 и 60), но в други ситуации скоростта на неговия RAID 5 и 6 е ясно оставя много да се желае.. И единственото спасение (почти универсално) ще бъде само RAID 10 масив, който може да бъде организиран с почти същия успех на по-евтини контролери. Често обаче благодарение на процесора и кеша SAS9260-8i RAID 10 масивът се държи не по-бавно от лента от същия брой дискове, като същевременно гарантира висока надеждност на решението. Но това, което определено трябва да избягвате със SAS9260-8i, е двудисков "рефлекс" и 4-дисков RAID 6 и 5 - това очевидно са неоптимални конфигурации за този контролер.

Благодарение на Hitachi Global Storage Technologies
за твърди дискове, предоставени за тестване.

Ако има няколко компютърни диска, свързването им е лесно. Но ако искате много дискове, има функции. Кабелът на KDPV SAS с Али, който вече се е подхлъзнал в миналото, беше толкова неочаквано топло приет от общността. Благодаря, другари. Ще се опитам да засегна тема, която е потенциално полезна за малко по-широк кръг. Макар и конкретно. Ще започна с този кабел и задължителна програма, но само за семето. Различни части от пъзела трябва да бъдат събрани на различни места.
Искам да ви предупредя веднага, че текстът се оказа плътен и доста тежък. Със сигурност не е необходимо да се принуждавате да четете и разбирате всичко това. Много снимки!

Някой да каже 9 долара за тъп кабел? Какво да се прави, в ежедневието това се използва изключително рядко, а за индустриални неща тиражите са по-ниски, а цените са по-високи. Срещу сложен SAS кабел и сто-две долара могат да го настроят без да ми минат окото. Така че китайците го намаляват още повече :)

Доставка и опаковане

Поръчан на 6 май 2017 г., получен на 17 май - просто ракета. Пистата беше.

Обичайната сива опаковка, вътре още една - напълно достатъчна, стоките не са чупливи.

Спецификация

Мъжки-мъжки SFF-8482 SAS 29-пинов кабел.
Дължина 50 см
Нето тегло 66 гр

Снимка на продавача

Реалният външен вид, както виждате, е различен



За допълнителна пластмаса продавачът получи 4 звезди вместо 5, но не се отразява на производителността.

Относно SAS и SATA конекторите

Какво е SFF-8482 и с какво се яде? Първо, това е най-масивният конектор на SAS устройства (), например, на моето лентово устройство



И SFF-8482 пасва идеално на SATA устройство (но не и обратно)


Сравнете, SATA има разлика между данни и мощност. А при SAS се пълни с пластмаса. Следователно SATA конекторът на SAS устройството няма да пасне.

Разбира се, това има смисъл. SAS и SATA сигналите са различни. И SATA контролерът няма да може да работи със SAS устройството. SAS - контролерът ще може да прави и двете (въпреки че има съвет да не се смесва при определени обстоятелства, у дома едва ли е реално)

SAS контролери и разширители

И какво, ще попита читателят. Какво печеля от такава съвместимост? SATA контролерите са ми достатъчни!

Истинската истина! Ако достатъчно - в този момент можете да спрете да четете. Въпросът беше какво да правя, ако има МНОГО дискове?

Ето как изглежда един обикновен SAS контролер от моя цип - DELL H200.


Моята е флашвана в HBA, тоест всички осови дискове се виждат поотделно

И това е древен SAS RAID HP

И двата имат вътрешни конектори (наречени sff 8087 или по-често miniSAS) и един външен - sff 8088

Колко диска могат да бъдат свързани към един miniSAS? Отговорът зависи. Тъп кабел - 4 бр, тоест 8 за такъв контролер. Кабелът от моя ZIP изглежда така

От единия край miniSAS, от другия - 4 бр SATA (и още един конектор, за него по-долу)

Но можете да вземете кабел miniSAS-miniSAS и да го свържете към разширител, тоест умножител на портове. И контролерът ще изтегли до 256 (двеста петдесет и шест) диска. Освен това скоростта на канала е достатъчна за десетки дискове - със сигурност.
Разширителят като отделна карта изглежда, например, като моя Chenbrough

И може да се запоява на кошница за дискове. Тогава само един miniSAS канал може да влезе в него (или може би повече). Ето кабелите.


Съгласете се, управлението на кабелите е донякъде опростено :)

Кошници

Ясно е, че дисковете могат да работят добре без специални кошници. Но понякога кошниците могат да бъдат полезни.

Ето как изглежда кошницата SATA на стария модел Supermicro. Може да се намери за 1000 r, а по-скоро за 5+ хиляди.


Нейната тава за дискове


Поглед отвътре се вижда, че има SATA конектори.


Ако кошницата на SAS е още по-добра, има по-малко проводници. Ако SCSI или FC - няма да можете да го използвате. Взех един 19" FC за проба - нищо полезно не направих. Вярно, имаше скрап от цветни метали почти за парите, за които го купих.


Изглед отзад, виждаме 4 SATA, 2 MOLEX и същия порт, който беше на кабела. Предназначен за управление на LED активността на диска.

Ето как изглежда една от най-простите кошници (има много различни модели, но подобни)


Те вече не се продават, така че подробностите не са важни. Само парче метал с амортисьори и Карлсон отпред.

Ето как изглеждаше през 2013 г


Картонената патерица в долната част и третата кошница бяха там само за момент, за да прехвърлят данни от 2T дискове към 4T. Оттогава е отворен 24/7.

Имам SAS+SATA

По-точно, работи преди да трябва да свържа лентово устройство. Първо включих втори SAS контролер, купих miniSAS кабел за sff 8482, нещо подобно

И го включи. Всичко работеше, но в режим 24/7 всеки ват струва пари. Търсих адаптери от sff 8482 към SATA, но решението се оказа още по-просто. Помните ли, че SATA устройство е свързано към SAS sff 8482?

Сега също се сещам, но тогава бях тъп няколко месеца :) И тогава извадих един допълнителен контролер, превключих единия диск на порта за SATA чипсет, другите три на sff 8482. Трябваше да сменя захранването връзка, имаше Molex-SATA сплитер, трябваше да купя на Ali Molex - Много Molex. като този


, Всичко е наред.

И лентово устройство се премести в друга сграда с помощта на наблюдавания кабел. Но това е отделна песен, но, стража, чувствам се уморен :)

Къде е най-доброто място да намерите всичко това?

Цените за нов сървърен хардуер за дома са непосилни. Така че, включително резервни части от оборудване, което се извежда от експлоатация.
Кабелиможе да се намери на местно ниво. За сравними пари в e-bay. На Али - малко по-малко вероятно, но има изключения - купих го.
Контролери- предимно на e-bay и от Европа. Възможно е от САЩ, там е много по-евтино, ако по някакъв начин решите проблема с доставката. Може да се намери в родината - Авито. (На бучка - скъпо). Купуването в Китай е много опасно. Много оплаквания за фалшификат от отказа. Или работи, или не. Не можеш да докажеш нищо на никого.
Кошниципо-разумно е да търсите локално. Има дори опции за най-простите кошници за закупуване на нови. Прости кошници без електроника могат да се вземат в Китай и Европа и на битпазар. Кошници с разширители - вижте точката за контролерите.

ВАЖНО Да се ​​объркаш е по-лесно, отколкото да се изгубиш в гората. Консултирайте се във форума. SAS е различен -3, 6 и 12 Gb/s. Някои контролери са зашити в нещо, което може да се използва с настолен хардуер, други не, трети изобщо няма да заздравеят никъде освен майката на родния производител. И т.н.



На багажника съм MikeMac

PS Ако това беше представянето на Captain Obvious за вас, извинявам се за губеното време.
Ако глупости - още повече моите искрени извинения. Трудно се балансира, всеки има свои желания, задачи и първоначални.

Смятам да купя +33 Добави в любими Хареса рецензията +56 +106

Малко се е променило през последните две години:

  • Supermicro се отказва от собствения "обърнат" UIO форм-фактор за контролери. Подробностите ще бъдат по-долу.
  • LSI 2108 (SAS2 RAID с 512MB кеш) и LSI 2008 (SAS2 HBA с допълнителна поддръжка за RAID) все още са в експлоатация. Продуктите, базирани на тези чипове, както от LSI, така и от OEM партньори, са добре отстранени и все още са актуални.
  • Появи се LSI 2208 (същият SAS2 RAID с LSI MegaRAID стек, само с двуядрен процесор и 1024MB кеш) и (подобрена версия на LSI 2008 с по-бърз процесор и поддръжка на PCI-E 3.0).

Преход от UIO към WIO

Както си спомняте, UIO платките са обикновени PCI-E x8 платки, в които цялата елементна база е разположена на обратната страна, т.е. когато е монтиран в левия щранг, той е отгоре. Този форм-фактор беше необходим за инсталиране на платки в най-ниския слот на сървъра, което позволяваше да се поставят четири платки в левия щранг. UIO е не само форм-фактор на разширителните платки, но и кутии, предназначени за инсталиране на щрангове, самите щрангове и дънни платки със специален форм-фактор, с изрез за долния слот за разширение и слотове за инсталиране на щрангове.
Това решение имаше два проблема. Първо, нестандартният форм-фактор на разширителните платки ограничава избора на клиента, т.к под UIO форм фактор има само няколко контролера SAS, InfiniBand и Ehternet. Второ, няма достатъчно PCI-E линии в слотовете за райзери - само 36, от които има само 24 линии за левия райзер, което явно не е достатъчно за четири платки с PCI-E x8.
Какво е WIO? Първоначално се оказа, че е възможно да се поставят четири дъски в левия щранг, без да се налага да се "обърне маслото за сандвич", а за обикновените дъски има щрангове (RSC-R2UU-A4E8+). Тогава проблемът с липсата на линии (сега са 80) беше решен чрез използване на слотове с по-висока плътност на щифтовете.
UIO щранг RSC-R2UU-UA3E8+
WIO щранг RSC-R2UW-4E8

Резултати:
  • WIO райзерите не могат да се инсталират в UIO дънни платки (напр. X8DTU-F).
  • UIO щрангове не могат да се инсталират в нови WIO платки.
  • Има щрангове за WIO (на дънната платка), които имат UIO слот за карти. В случай, че все още имате UIO контролери. Използват се в платформи под Socket B2 (6027B-URF, 1027B-URF, 6017B-URF).
  • Новите контролери във форм-фактора UIO няма да се показват. Например контролерът USAS2LP-H8iR на чипа LSI 2108 ще бъде последният, няма да има LSI 2208 за UIO - само обикновен MD2 с PCI-E x8.

PCI-E контролери

В момента са подходящи три разновидности: RAID контролери, базирани на LSI 2108/2208 и HBA, базирани на LSI 2308. Има и мистериозен SAS2 HBA AOC-SAS2LP-MV8 на чип Marvel 9480, но пишете за него заради екзотичността му . Повечето случаи на използване на вътрешни SAS HBA са съхранение със ZFS под FreeBSD и различни варианти на Solaris. Поради липсата на проблеми с поддръжката в тези операционни системи, изборът в 100% от случаите пада върху LSI 2008/2308.
LSI 2108
В допълнение към UIO "shny AOC-USAS2LP-H8iR, който се споменава в още два контролера, бяха добавени:

AOC-SAS2LP-H8iR
LSI 2108, SAS2 RAID 0/1/5/6/10/50/60, 512MB кеш, 8 вътрешни порта (2x SFF-8087). Това е аналог на контролера LSI 9260-8i, но произведен от Supermicro, има малки разлики в оформлението на платката, цената е $40-50 по-ниска от LSI. Поддържат се всички допълнителни LSI опции: активиране, FastPath и CacheCade 2.0, защита на батерията на кеша - LSIiBBU07 и LSIiBBU08 (сега е за предпочитане да се използва BBU08, има разширен температурен диапазон и се предлага с кабел за отдалечен монтаж).
Въпреки появата на по-мощни контролери, базирани на LSI 2208, LSI 2108 все още е актуален поради намаляването на цената. Производителността с конвенционалните твърди дискове е достатъчна във всеки сценарий, ограничението на IOPS за работа със SSD е 150 000, което е повече от достатъчно за повечето бюджетни решения.

AOC-SAS2LP-H4iR
LSI 2108, SAS2 RAID 0/1/5/6/10/50/60, 512MB кеш, 4 вътрешни + 4 външни порта. Той е аналог на контролера LSI 9280-4i4e. Удобен за използване в калъфи за разширител, като не е нужно да извеждате изхода от разширителя навън, за да свържете допълнителни JBOD, или в случаи от 1U за 4 диска, ако е необходимо, осигурете възможност за увеличаване на броя на дисковете.Поддържа същите BBU и ключове за активиране.
LSI 2208

AOC-S2208L-H8iR
LSI 2208, SAS2 RAID 0/1/5/6/10/50/60, 1024MB кеш, 8 вътрешни порта (2 SFF-8087 конектора). Той е аналог на контролера LSI 9271-8i. LSI 2208 е по-нататъшно развитие на LSI 2108. Процесорът стана двуядрен, което направи възможно повишаването на границата на производителност по отношение на IOPS "m до 465000. Добавена беше поддръжка за PCI-E 3.0 и увеличена до 1GB кеш.
Контролерът поддържа защита на кеша на батерията BBU09 и флаш защита на CacheVault. Supermicro ги доставя под номера на части BTR-0022L-LSI00279 и BTR-0024L-LSI00297, но е по-лесно да закупите от нас чрез канала за продажба на LSI (втората част от номерата на частите са родните номера на LSI части). Поддържат се и ключовете за активиране на MegaRAID Advanced Software Options, номер на част: AOC-SAS2-FSPT-ESW (FastPath) и AOCCHCD-PRO2-KEY (CacheCade Pro 2.0).
LSI 2308 (HBA)

AOC-S2308L-L8i и AOC-S2308L-L8e
LSI 2308, SAS2 HBA (с IR фърмуер - RAID 0/1/1E), 8 вътрешни порта (2 SFF-8087 конектора). Това е същият контролер, идва с различен фърмуер. AOC-S2308L-L8e - IT фърмуер (чист HBA), AOC-S2308L-L8i - IR фърмуер (поддържащ RAID 0/1/1E). Разликата е, че L8i може да работи с IR и IT фърмуер, L8e може да работи само с IT, фърмуерът в IR е заключен. Той е аналог на контролера LSI 9207-8 и. Разлики от LSI 2008: по-бърз чип (800 MHz, в резултат - границата на IOPS се е повишила до 650 хиляди), появи се поддръжка на PCI-E 3.0. Приложение: софтуерни RAID (ZFS, например), бюджетни сървъри.
На базата на този чип няма да има евтини контролери, поддържащи RAID-5 (iMR стек, извън готови контролери - LSI 9240).

Бордови контролери

В най-новите продукти (X9 платки и платформи с тях) Supermicro обозначава наличието на SAS2 контролер от LSI с числото "7" в номера на частта, числото "3" показва чипсета SAS (Intel C600). Просто не прави разлика между LSI 2208 и 2308, така че бъдете внимателни при избора на платка.
  • Базираният на LSI 2208 контролер, запоен на дънни платки, има максимално ограничение от 16 диска. Ако добавите 17, той просто няма да бъде открит и ще видите съобщението „PD не се поддържа“ в MSM дневника. Това се компенсира от значително по-ниска цена. Например, пакет "X9DRHi-F + външен контролер LSI 9271-8i" ще струва около $500 повече от X9DRH-7F с LSI 2008 на борда. Заобикалянето на това ограничение чрез мигане в LSI 9271 няма да работи - мигането на друг SBR блок, както в случая с LSI 2108, не помага.
  • Друга особеност е липсата на поддръжка за CacheVault модули, просто няма достатъчно място на платките за специален конектор, така че се поддържа само BBU09. Възможността за инсталиране на BBU09 зависи от използвания корпус. Например LSI 2208 се използва в блейд сървърите 7127R-S6, има BBU конектор, но за да монтирате самия модул, ви е необходима допълнителна скоба за държач на батерия MCP-640-00068-0N.
  • Сега ще се изисква фърмуерът на SAS HBA (LSI 2308), тъй като в DOS на която и да е от платките с LSI 2308 sas2flash.exe не започва с грешката „Неуспешно инициализиране на PAL“.

Контролери в платформи Twin и FatTwin

Някои платформи 2U Twin 2 се предлагат в три версии, с три вида контролери. Например:
  • 2027TR-HTRF+ - Чипсет SATA
  • 2027TR-H70RF+ - LSI 2008г
  • 2027TR-H71RF+ - LSI 2108
  • 2027TR-H72RF+ - LSI 2208
Такова разнообразие се осигурява от факта, че контролерите са поставени на специална задна платка, която се свързва към специален слот на дънната платка и към задната платка на диска.
BPN-ADP-SAS2-H6IR (LSI 2108)


BPN-ADP-S2208L-H6iR (LSI 2208)

BPN-ADP-SAS2-L6i (LSI 2008)

Кутии Supermicro xxxBE16/xxxBE26

Друга тема, която е пряко свързана с контрольорите е модернизирането на случаите с . Появиха се разновидности с допълнителен кош за два 2,5" диска, разположени на задния панел на кутията. Целта е специален диск (или огледало) за зареждане на системата. Разбира се, системата може да се зареди, като изберете малък обем от друга дискова група или от допълнителни дискове, фиксирани вътре в кутията (в 846 случая можете да инсталирате допълнителни крепежни елементи за едно 3,5" или две 2,5" устройства), но актуализираните модификации са много по-удобни:




Освен това тези допълнителни дискове не е необходимо да се свързват специално към SATA контролера на чипсета. С помощта на кабела SFF8087->4xSATA можете да се свържете към главния SAS контролер през SAS изхода на разширителя.
P.S. Надявам се информацията да е била полезна. Не забравяйте, че най-пълната информация и техническа поддръжка за продукти от Supermicro, LSI, Adaptec от PMC и други доставчици се предлага от True System.

Свързани статии: