전례 없는 직렬 인터페이스 호환성. 하드 드라이브 인터페이스: SCSI, SAS, Firewire, IDE, SATA 사용자가 사용할 수 있는 섹터 수

20년 이상 동안 병렬 버스 인터페이스는 대부분의 디지털 스토리지 시스템에서 가장 일반적인 통신 프로토콜이었습니다. 그러나 대역폭과 시스템 유연성에 대한 요구가 커지면서 가장 일반적인 두 가지 병렬 인터페이스 기술인 SCSI와 ATA의 단점이 명백해졌습니다. SCSI와 ATA 병렬 인터페이스 간의 호환성 부족(서로 다른 커넥터, 케이블 및 명령 세트 사용)은 시스템 유지 관리, 연구 개발, 교육 및 신제품 인증 비용을 증가시킵니다.

현재까지 병렬 기술은 현대 사용자에게 여전히 만족스러운 수준입니다. 기업 시스템성능 측면에서는 더 빠른 속도, 더 나은 데이터 전송 무결성, 더 작은 물리적 크기 및 더 많은 표준화에 대한 요구가 증가함에 따라 빠르게 증가하는 CPU 및 하드 드라이브 속도를 비용 효율적으로 따라잡을 수 있는 병렬 인터페이스의 능력에 의문이 제기되고 있습니다. 또한 긴축 환경에서 기업이 다양한 커넥터를 개발하고 유지하기 위한 자금을 모으는 것이 점점 더 어려워지고 있습니다. 후면 패널서버 섀시 및 외부 디스크 어레이, 이기종 인터페이스 호환성 테스트 및 I/O 작업을 위한 이기종 연결 인벤토리.

병렬 인터페이스의 사용에는 여러 가지 다른 문제도 있습니다. 넓은 스터브 케이블을 통한 병렬 데이터 전송은 추가 노이즈 및 신호 오류를 생성할 수 있는 혼선의 영향을 받습니다. 이 트랩을 방지하려면 신호 속도를 줄이거나 케이블 길이를 제한하거나 둘 다 수행해야 합니다. 병렬 신호의 종료는 특정 어려움과도 관련이 있습니다. 각 라인을 개별적으로 종료해야 하며 일반적으로 케이블 끝에서 신호 반사를 방지하기 위해 마지막 드라이브가 이 작업을 수행합니다. 마지막으로 병렬 인터페이스에 사용되는 대형 케이블과 커넥터로 인해 이러한 기술은 새로운 소형 컴퓨팅 시스템에 적합하지 않습니다.

SAS 및 SATA 소개

SATA(Serial ATA) 및 SAS(Serial Attached SCSI)와 같은 직렬 기술은 기존 병렬 인터페이스의 구조적 한계를 극복합니다. 이러한 새로운 기술은 병렬 기술에서 사용되는 다중 스트림과 달리 모든 정보가 단일 스트림에서 순차적으로(영어 직렬) 전송되는 신호 전송 방식에서 이름을 얻었습니다. 직렬 인터페이스의 주요 이점은 데이터가 단일 스트림으로 전송될 때 병렬 인터페이스를 사용할 때보다 훨씬 빠르게 이동한다는 것입니다.

직렬 기술은 많은 데이터 비트를 패킷으로 결합한 다음 케이블을 통해 병렬 인터페이스보다 최대 30배 빠른 속도로 전송합니다.

SATA는 초당 1.5GB 이상의 속도로 디스크 드라이브 간 데이터 전송을 가능하게 함으로써 기존 ATA 기술의 기능을 확장합니다. 디스크 용량의 기가바이트당 비용이 저렴하기 때문에 SATA는 데스크탑 PC, 보급형 서버 및 네트워크 시스템비용이 주요 고려 사항 중 하나인 정보 저장.

병렬 SCSI의 후속 제품인 SAS는 이전 제품의 입증된 높은 기능을 기반으로 하며 오늘날 엔터프라이즈 스토리지 시스템의 기능을 크게 확장할 것을 약속합니다. SAS에는 기존 스토리지 솔루션에서는 사용할 수 없는 많은 이점이 있습니다. 특히 SAS는 단일 포트에 최대 16,256개의 장치를 연결할 수 있으며 최대 3Gb/s의 속도로 안정적인 지점 간 직렬 연결을 제공합니다.

또한 더 작은 SAS 커넥터는 3.5" 및 2.5" 하드 드라이브(이전에는 3.5" Fibre Channel 하드 드라이브에서만 사용 가능)에 대해 완전한 2포트 연결을 제공합니다. 이것은 매우 유용한 기능많은 수의 중복 드라이브를 배치해야 하는 경우 컴팩트 시스템, 예를 들어 로우 프로파일 블레이드 서버에서.

SAS는 다수의 드라이브를 하나 이상의 호스트 컨트롤러에 연결할 수 있는 하드웨어 확장기로 드라이브 주소 지정 및 연결성을 향상시킵니다. 각 확장기는 다른 호스트 컨트롤러, 다른 SAS 확장기 또는 디스크 드라이브가 될 수 있는 최대 128개의 물리적 장치에 대한 연결을 제공합니다. 이 구성표는 잘 확장되며 장애 발생 시 자동 시스템 복구 및 부하 분산을 위해 다중 노드 클러스터링을 쉽게 지원하는 엔터프라이즈급 토폴로지를 만들 수 있습니다.

새로운 직렬 기술의 가장 큰 이점 중 하나는 SAS 인터페이스가 보다 비용 효율적인 SATA 드라이브와도 호환되므로 시스템 설계자가 두 가지 인터페이스를 지원하는 추가 비용 없이 동일한 시스템에서 두 가지 유형의 드라이브를 모두 사용할 수 있다는 것입니다. 따라서 차세대 SCSI 기술을 대표하는 SAS 인터페이스는 성능, 확장성 및 데이터 가용성 측면에서 기존 병렬 기술의 한계를 극복합니다.

여러 수준의 호환성

물리적 호환성

SAS 커넥터는 범용이며 SATA와 호환되는 폼 팩터입니다. 이를 통해 SAS 및 SATA 드라이브를 모두 SAS 시스템에 직접 연결할 수 있으므로 시스템을 고성능 및 빠른 데이터 액세스가 필요한 미션 크리티컬 애플리케이션이나 낮은 비용으로 보다 비용 효율적인 애플리케이션에 사용할 수 있습니다. 기가바이트.

SATA 명령 세트는 SATA 장치와 SAS 컨트롤러 간의 호환성을 제공하는 SAS 명령 세트의 하위 집합입니다. 그러나 SAS 드라이브는 SATA 컨트롤러와 함께 작동할 수 없으므로 잘못된 연결 가능성을 제거하기 위해 커넥터에 특수 키가 제공됩니다.

또한 SAS 및 SATA 인터페이스의 유사한 물리적 매개변수는 SAS 및 SATA 드라이브를 모두 지원하는 새로운 범용 SAS 백플레인을 허용합니다. 결과적으로 SCSI 및 ATA 드라이브에 서로 다른 두 개의 백플레이트를 사용할 필요가 없습니다. 이 상호 운용성은 하드웨어 및 엔지니어링 비용을 줄임으로써 백플레이트 제조업체와 최종 사용자 모두에게 이익이 됩니다.

프로토콜 수준 호환성

SAS 기술에는 액세스하는 장치에 따라 직렬 인터페이스를 통해 서로 다른 유형의 데이터를 전송하는 데 사용되는 세 가지 유형의 프로토콜이 포함됩니다. 첫 번째는 SCSI 명령을 전송하는 직렬 SCSI 프로토콜(Serial SCSI Protocol SSP)이고, 두 번째는 확장기에 제어 정보를 전송하는 SMP(SCSI Management Protocol)입니다. 세 번째인 SATA Tunneled Protocol STP는 SATA 명령 전송을 허용하는 연결을 설정합니다. 이 세 가지 프로토콜을 사용하는 SAS 인터페이스는 기존 SCSI 응용 프로그램, 관리 소프트웨어 및 SATA 장치와 완벽하게 호환됩니다.

SAS 및 SATA 커넥터의 물리적 호환성과 결합된 이 다중 프로토콜 아키텍처는 SAS 기술을 SAS 및 SATA 장치 간의 범용 링크로 만듭니다.

호환성 이점

SAS와 SATA 간의 호환성은 시스템 설계자, 빌더 및 최종 사용자에게 많은 이점을 제공합니다.

시스템 설계자는 SAS 및 SATA 호환성으로 인해 동일한 백플레이트, 커넥터 및 케이블 연결을 사용할 수 있습니다. SATA에서 SAS로 시스템을 업그레이드하는 것은 실제로 디스크 드라이브를 교체하는 것입니다. 반대로 기존 병렬 인터페이스 사용자의 경우 ATA에서 SCSI로 이동한다는 것은 후면 패널, 커넥터, 케이블 및 드라이브를 변경하는 것을 의미합니다. 직렬 기술의 기타 비용 효율적인 상호 운용성 이점에는 단순화된 인증 및 자산 관리가 포함됩니다.

VAR 리셀러와 시스템 빌더는 적절한 디스크 드라이브를 시스템에 설치하기만 하면 맞춤형 시스템을 쉽고 빠르게 재구성할 수 있습니다. 호환되지 않는 기술로 작업하거나 특수 커넥터 및 다른 케이블 연결을 사용할 필요가 없습니다. 또한 최고의 가격 대비 성능 비율을 선택할 수 있는 유연성이 추가되어 VAR 리셀러와 시스템 빌더가 제품을 더 잘 차별화할 수 있습니다.

최종 사용자에게 SATA 및 SAS 호환성은 최상의 가격 대비 성능 비율을 선택할 때 새로운 수준의 유연성을 의미합니다. SATA 드라이브는 저비용 서버 및 스토리지 시스템을 위한 최상의 솔루션인 반면 SAS 드라이브는 최대 성능, 안정성 및 관리 소프트웨어 호환성을 제공합니다. 새 시스템을 구입하지 않고 SATA에서 SAS 드라이브로 업그레이드할 수 있는 기능은 구매 결정을 크게 단순화하고 시스템 투자를 보호하며 총 소유 비용을 낮춥니다.

SAS 및 SATA 프로토콜 공동 개발

2003년 1월 20일 STA(SCSI Trade Association)와 SATA(Serial ATA) II 워킹 그룹은 SAS 기술이 시스템 수준에서 SATA 디스크 드라이브와 호환되도록 하기 위한 협력을 발표했습니다.

두 조직의 협력과 스토리지 공급업체 및 표준 위원회의 공동 노력은 시스템 설계자, IT 전문가 및 최종 사용자가 시스템을 더욱 미세 조정하여 목표를 달성하는 데 도움이 되는 훨씬 더 정확한 호환성 지침을 개발하는 것을 목표로 합니다. 최적의 성능, 안정성 및 낮은 총소유비용.

SATA 1.0 사양은 2001년에 승인되었으며 현재 다양한 제조업체의 SATA 제품이 시장에 나와 있습니다. SAS 1.0 사양은 2003년 초에 승인되었으며 첫 번째 제품은 2004년 상반기에 출시될 예정입니다.

최신 RAID 컨트롤러에 대한 간략한 설명

현재 별도의 솔루션인 RAID 컨트롤러는 전문 서버 시장 부문에만 집중되어 있습니다. 실제로 사용자 PC(서버 보드가 아님)를 위한 모든 최신 마더보드에는 하드웨어 및 소프트웨어 SATA RAID 컨트롤러가 통합되어 있으며 그 기능은 PC 사용자에게 충분합니다. 사실, 이러한 컨트롤러는 Windows 운영 체제 사용에만 중점을 둔다는 점을 명심해야 합니다. 안에 운영체제 Linux 제품군에서 RAID 어레이는 소프트웨어에 의해 생성되며 모든 계산은 RAID 컨트롤러에서 CPU로 전송됩니다.

서버는 전통적으로 하드웨어-소프트웨어 또는 순수 하드웨어 RAID 컨트롤러를 사용합니다. 하드웨어 RAID 컨트롤러를 사용하면 운영 체제와 중앙 프로세서의 참여 없이 RAID 어레이를 만들고 유지할 수 있습니다. 이러한 RAID 어레이는 운영 체제에서 단일 디스크(SCSI 디스크)로 인식됩니다. 이 경우 특수 드라이버가 필요하지 않습니다. 표준(운영 체제의 일부) SCSI 디스크 드라이버가 사용됩니다. 이와 관련하여 하드웨어 컨트롤러는 플랫폼 독립적이며 RAID 어레이는 컨트롤러의 BIOS를 통해 구성됩니다. 하드웨어 RAID 컨트롤러는 계산을 위해 자체 특수 프로세서와 RAM을 사용하기 때문에 모든 체크섬 등을 계산할 때 CPU를 사용하지 않습니다.

어플라이언스 컨트롤러에는 표준 SCSI 디스크 드라이버를 대체하는 전용 드라이버가 필요합니다. 또한 소프트웨어 및 하드웨어 컨트롤러에는 관리 유틸리티가 장착되어 있습니다. 이와 관련하여 소프트웨어 및 하드웨어 컨트롤러는 특정 운영 체제에 연결되어 있습니다. 이 경우 필요한 모든 계산은 RAID 컨트롤러 자체의 프로세서에서도 수행되지만 소프트웨어 드라이버 및 관리 유틸리티를 사용하면 컨트롤러의 BIOS뿐만 아니라 운영 체제를 통해 컨트롤러를 제어할 수 있습니다.

서버 SCSI 디스크가 이미 SAS 디스크로 교체되었다는 사실을 감안할 때 모든 최신 서버 RAID 컨트롤러는 서버에서도 사용되는 SAS 또는 SATA 디스크를 지원하는 데 중점을 둡니다.

작년에 새로운 SATA 3(SATA 6Gb/s) 인터페이스가 있는 드라이브가 시장에 출시되기 시작했으며 점차 SATA 2(SATA 3Gb/s) 인터페이스를 대체하기 시작했습니다. SAS 인터페이스(3Gb/s)가 있는 디스크는 SAS 2.0 인터페이스(6Gb/s)가 있는 디스크로 교체되었습니다. 당연히 새로운 SAS 2.0 표준은 이전 표준과 완벽하게 호환됩니다.

이에 따라 SAS 2.0 표준을 지원하는 RAID 컨트롤러가 등장했다. 가장 빠른 SAS 디스크의 읽기 및 쓰기 속도가 200MB/s 이하이고 SAS 프로토콜의 대역폭(3Gb/s 또는 300MB)이 있는 경우 SAS 2.0 표준으로 전환할 필요가 없는 것 같습니다. / s) 그들에게 충분합니다. ?

실제로 각 드라이브가 RAID 컨트롤러의 별도 포트에 연결된 경우 3Gb/s(이론적으로 300MB/s)이면 충분합니다. 그러나 개별 디스크뿐만 아니라 디스크 어레이(디스크 케이지)도 RAID 컨트롤러의 각 포트에 연결할 수 있습니다. 이 경우 하나의 SAS 채널이 한 번에 여러 드라이브에서 공유되며 3Gb/s의 대역폭으로는 더 이상 충분하지 않습니다. 또한 읽기 및 쓰기 속도가 이미 300MB / s의 막대를 초과 한 SSD 드라이브의 존재를 고려해야합니다. 예를 들어 새로운 Intel SSD 510은 최대 500MB/s의 순차 읽기 속도와 최대 315MB/s의 순차 쓰기 속도를 제공합니다.

서버 RAID 컨트롤러 시장의 현재 상황에 대해 간단히 소개한 후 LSI 3ware SAS 9750-8i 컨트롤러의 사양을 살펴보겠습니다.

3ware SAS 9750-8i RAID 컨트롤러 사양

이 RAID 컨트롤러는 클록 주파수가 800MHz인 특수 LSI SAS2108 XOR 프로세서와 PowerPC 아키텍처를 기반으로 합니다. 이 프로세서는 512MB를 사용합니다. 랜덤 액세스 메모리오류 수정(ECC) 기능이 있는 DDRII 800MHz.

LSI 3ware SAS 9750-8i 컨트롤러는 SATA 및 SAS 드라이브(HDD 및 SSD 모두 지원됨)와 호환되며 SAS 확장기를 사용하여 최대 96개의 장치를 연결할 수 있습니다. 중요한 것은 이 컨트롤러가 SATA 600MB/s(SATA III) 및 SAS 2 드라이브를 모두 지원한다는 것입니다.

디스크를 연결하기 위해 컨트롤러에는 2개의 Mini-SAS SFF-8087 커넥터(각 커넥터에 4개의 포트)에 물리적으로 결합된 8개의 포트가 있습니다. 즉, 디스크를 포트에 직접 연결하면 컨트롤러에 총 8개의 디스크를 연결할 수 있고, 디스크 케이지의 각 포트에 연결하면 디스크의 총 볼륨을 96개로 늘릴 수 있습니다. 컨트롤러의 대역폭은 SAS 2 및 SATA III 표준에 해당하는 6Gb/s입니다.

당연히 이 컨트롤러에 디스크 또는 디스크 케이지를 연결할 때 한쪽 끝에 내부 Mini-SAS SFF-8087 커넥터가 있고 다른 쪽 끝에 커넥터가 있는 특수 케이블이 필요합니다. 정확히 컨트롤러에 연결된 대상에 따라 다릅니다. . 예를 들어 SAS 드라이브를 컨트롤러에 직접 연결할 때 한쪽에는 Mini-SAS SFF-8087 커넥터가 있고 다른 쪽에는 4개의 SFF 8484 커넥터가 있는 케이블을 사용해야 SAS 드라이브를 직접 연결할 수 있습니다. 케이블 자체는 패키지에 포함되어 있지 않으며 별도로 구매해야 합니다.

LSI 3ware SAS 9750-8i 컨트롤러에는 인터페이스가 있습니다. PCI 익스프레스 64Gbps용 2.0 x8(각 방향으로 32Gbps). 이 처리량은 각각 대역폭이 6Gb/s인 완전히 로드된 8개의 SAS 포트에 충분합니다. 또한 컨트롤러에는 백업 배터리 LSIiBBU07에 선택적으로 연결할 수 있는 특수 커넥터가 있습니다.

이 컨트롤러에는 드라이버, 즉 소프트웨어 및 하드웨어 RAID 컨트롤러를 설치해야 한다는 것이 중요합니다. Windows Vista와 같은 운영 체제를 지원하며, 윈도우 서버 2008, Windows Server 2003 x64, Windows 7, Windows 2003 Server, MAC OS X, LinuxFedora Core 11, Red Hat Enterprise Linux 5.4, OpenSuSE 11.1, SuSE Linux Enterprise Server(SLES) 11, OpenSolaris 2009.06, VMware ESX/ESXi 4.0/4.0 update-1 및 Linux 제품군의 다른 시스템. 패키지에는 다음이 포함됩니다. 소프트웨어운영 체제를 통해 RAID 어레이를 관리할 수 있는 3ware Disk Manager 2.

LSI 3ware SAS 9750-8i 컨트롤러는 표준 RAID 유형인 RAID 0, 1, 5, 6, 10 및 50을 지원합니다. 아마도 지원되지 않는 유일한 어레이 유형은 RAID 60일 것입니다. 이는 이 컨트롤러가 만들 수 있는 RAID 어레이각 컨트롤러 포트에 직접 연결된 5개의 드라이브에서만 6(이론적으로 RAID 6은 4개의 드라이브에서 생성할 수 있음). 따라서 RAID 60 어레이의 경우 이 컨트롤러에는 존재하지 않는 최소 10개의 디스크가 필요합니다.

RAID 1 어레이에 대한 지원이 이러한 컨트롤러와 관련이 없다는 것은 분명합니다. 주어진 유형어레이는 두 개의 디스크에만 생성되며 이러한 컨트롤러를 두 개의 디스크에만 사용하는 것은 비논리적이고 극도로 낭비입니다. 그러나 RAID 0, 5, 6, 10 및 50 어레이에 대한 지원은 매우 적절합니다. 아마도 우리는 RAID 0 어레이로 서둘렀을 것입니다. 그러나 이 어레이는 중복성이 없으므로 안정적인 데이터 스토리지를 제공하지 못하므로 서버에서 거의 사용되지 않습니다. 그러나 이론적으로 이 어레이는 데이터 읽기 및 쓰기 속도 측면에서 가장 빠릅니다. 그러나 무엇을 기억합시다 다른 유형 RAID 어레이는 서로 다르며 무엇인지도 다릅니다.

RAID 수준

"RAID 어레이"라는 용어는 1987년 캘리포니아 버클리 대학의 미국 연구자 Patterson, Gibson 및 Katz가 "저렴한 디스크의 중복 어레이에 대한 사례, RAID"라는 기사에서 등장했습니다. 여러 개의 저렴한 하드 드라이브를 단일 논리 장치에 통합하여 결과적으로 시스템 용량과 속도를 높이고 개별 드라이브의 오류가 전체 시스템의 오류로 이어지지 않도록 합니다. 이 기사가 발행된 지 거의 25년이 지났지만 RAID 어레이 구축 기술은 오늘날에도 관련성을 잃지 않았습니다. 그 이후로 변경된 유일한 것은 약어 RAID의 디코딩입니다. 사실 처음에는 RAID 어레이가 저렴한 디스크에 전혀 구축되지 않았기 때문에 Inexpensive("저렴한")라는 단어가 Independent("independent")로 변경되었으며 이는 더 사실입니다.

RAID 어레이의 내결함성은 중복성을 통해 달성됩니다. 즉, 디스크 공간 용량의 일부가 서비스 목적으로 할당되어 사용자가 액세스할 수 없게 됩니다.

디스크 하위 시스템의 성능 향상은 여러 디스크의 동시 작동에 의해 제공되며 이러한 의미에서 어레이의 디스크가 많을수록(특정 한도까지) 더 좋습니다.

어레이의 드라이브는 병렬 또는 독립 액세스를 사용하여 공유할 수 있습니다. 병렬 액세스를 통해 디스크 공간은 데이터 기록을 위해 블록(스트라이프)으로 나뉩니다. 마찬가지로 디스크에 기록할 정보는 동일한 블록으로 나뉩니다. 기록할 때 개별 블록이 다른 디스크에 기록되고 여러 블록이 기록됩니다. 다양한 디스크동시에 발생하여 쓰기 작업의 성능이 향상됩니다. 또한 필요한 정보는 여러 디스크에서 동시에 별도의 블록으로 읽히므로 어레이의 디스크 수에 비례하여 성능 향상에도 기여합니다.

병렬 액세스 모델은 데이터 쓰기 요청의 크기가 블록 자체의 크기보다 큰 경우에만 구현된다는 점에 유의해야 합니다. 그렇지 않으면 여러 블록을 병렬로 쓰는 것이 사실상 불가능합니다. 단일 블록의 크기가 8KB이고 데이터 쓰기 요청의 크기가 64KB인 상황을 상상해 보십시오. 이 경우 소스 정보는 각각 8KB의 8개 블록으로 절단됩니다. 4개의 디스크 어레이가 있는 경우 4개의 블록 또는 32KB를 한 번에 동시에 쓸 수 있습니다. 분명히 이 예에서 쓰기 속도와 읽기 속도는 단일 디스크를 사용할 때보다 4배 더 빠를 것입니다. 이는 이상적인 상황에서만 해당되지만 요청 크기가 항상 어레이의 블록 크기와 디스크 수의 배수가 되는 것은 아닙니다.

기록된 데이터의 크기가 블록 크기보다 작으면 근본적으로 다른 모델인 독립적 액세스가 구현됩니다. 또한 이 모델은 기록할 데이터의 크기가 한 블록의 크기보다 큰 경우에도 사용할 수 있습니다. 독립 액세스를 사용하면 특정 요청의 모든 데이터가 별도의 디스크에 기록됩니다. 즉, 상황은 단일 디스크로 작업하는 것과 동일합니다. 독립 액세스 모델의 장점은 여러 쓰기(읽기) 요청이 동시에 도착하면 모두 서로 독립적으로 별도의 디스크에서 실행된다는 것입니다. 예를 들어 서버의 경우 이러한 상황이 일반적입니다.

다양한 유형의 액세스에 따라 다양한 유형의 RAID 어레이가 있으며 일반적으로 RAID 수준으로 특징지어집니다. 액세스 유형 외에도 RAID 수준은 중복 정보가 배치되고 형성되는 방식이 다릅니다. 중복 정보는 전용 디스크에 배치하거나 모든 디스크에 분산할 수 있습니다.

현재 널리 사용되는 여러 RAID 수준이 있으며 RAID 0, RAID 1, RAID 5, RAID 6, RAID 10, RAID 50 및 RAID 60입니다. 이전에는 RAID 2, RAID 3 및 RAID 4도 사용되었지만 이러한 RAID 수준은 현재 사용되지 않으며 최신 RAID 컨트롤러는 이를 지원하지 않습니다. 모든 최신 RAID 컨트롤러는 JBOD(Just a Bench Of Disks) 기능도 지원합니다. 이 경우 RAID 어레이가 아니라 개별 디스크를 RAID 컨트롤러에 연결하는 것입니다.

RAID 0

RAID 0 또는 스트라이핑은 이러한 어레이에는 중복성이 없고 데이터 스토리지 안정성을 제공하지 않기 때문에 엄밀히 말하면 RAID 어레이가 아닙니다. 그러나 역사적으로 RAID 어레이라고도 합니다. RAID 0 어레이(그림 1)는 두 개 이상의 디스크에 구축할 수 있으며 디스크 하위 시스템의 고성능을 보장해야 하고 데이터 스토리지 안정성이 중요하지 않은 경우에 사용됩니다. RAID 0 어레이를 생성할 때 정보는 블록(이 블록을 스트라이프(스트라이프)이라고 함)으로 나누어 별도의 디스크에 동시에 기록합니다. 즉, 병렬 액세스가 가능한 시스템이 생성됩니다(물론 블록 크기가 허용). 여러 드라이브에서 동시 I/O를 허용하는 기능을 갖춘 RAID 0은 체크섬을 저장하는 데 공간이 필요하지 않기 때문에 가장 빠른 데이터 전송 속도와 가장 효율적인 디스크 공간 사용을 제공합니다. 이 수준의 구현은 매우 간단합니다. 기본적으로 RAID 0은 빠른 전송많은 양의 데이터.

쌀. 1. RAID 0 어레이

이론적으로 읽기 및 쓰기 속도의 증가는 어레이에 있는 디스크 수의 배수여야 합니다.

RAID 0 어레이의 안정성은 개별 디스크의 안정성보다 분명히 낮으며 어레이에 포함된 디스크 수가 증가함에 따라 감소합니다. 그 중 하나라도 실패하면 전체 어레이의 작동 불능으로 이어지기 때문입니다. 각 디스크의 MTBF가 MTTF 디스크인 경우 다음으로 구성된 RAID 0 어레이의 MTBF는 N디스크는 다음과 같습니다.

MTTF RAID0 = MTTD 디스크 /n.

하나의 디스크가 일정 시간 동안 고장날 확률을 그런 다음 RAID 0 어레이의 경우 N하나 이상의 디스크가 실패할 확률(어레이가 떨어질 확률)은 다음과 같습니다.

P(배열 낙하) = 1 - (1 - p) n.

예를 들어, 작동 3년 이내에 한 디스크의 고장 확률이 5%인 경우 두 디스크의 RAID 0 어레이 고장 확률은 이미 9.75%이고 8개 디스크의 고장 확률은 33.7%입니다.

RAID 1

미러라고도 하는 RAID 1 어레이(그림 2)는 100% 중복성이 있는 2개의 디스크 어레이입니다. 즉, 데이터가 완전히 복제(미러링)되므로 매우 높은 수준의 신뢰성(및 비용)이 달성됩니다. RAID 1 구현에는 디스크와 데이터를 블록으로 미리 분할할 필요가 없습니다. 가장 간단한 경우 두 개의 드라이브는 동일한 정보를 포함하고 하나의 논리 드라이브입니다. 하나의 디스크에 오류가 발생하면 다른 디스크가 해당 기능을 수행합니다(이는 사용자에게 완전히 투명함). 어레이 복원은 단순 복사로 수행됩니다. 또한 RAID 1은 두 개의 디스크에서 동시에 이 작업을 수행할 수 있으므로 이론적으로 읽기 속도를 두 배로 늘려야 합니다. 이러한 정보 저장 방식은 주로 데이터 보안 가격이 스토리지 시스템 구현 비용보다 훨씬 높은 경우에 사용됩니다.

쌀. 2. RAID 1

앞의 경우와 같이 한 디스크의 일정 시간 동안의 고장 확률을 다음과 같이 표시하면 , RAID 1 어레이의 경우 두 디스크가 동시에 고장날 확률(어레이 고장 확률)은 다음과 같습니다.

p(어레이 드롭) = p 2.

예를 들어, 가동 3년 이내에 한 디스크의 고장 확률이 5%라면 두 디스크의 동시 고장 확률은 이미 0.25%입니다.

RAID 5

RAID 5 어레이(그림 3)는 분산 체크섬 스토리지가 있는 내결함성 디스크 어레이입니다. 기록할 때 데이터 스트림은 바이트 수준에서 블록(스트라이프)으로 나뉘며 순환 순서로 어레이의 모든 디스크에 동시에 기록됩니다.

쌀. 3. RAID 5 어레이

배열에 다음이 포함되어 있다고 가정합니다. N디스크, 스트라이프 크기는 . 의 각 부분에 대해 N-1 스트라이프 체크섬이 계산됩니다. .

줄무늬 d1첫 번째 디스크에 기록된 스트라이프 d2-두 번째 등 스트라이프까지 DN–1, (n–1)번째 디스크에 기록됩니다. 다음에 n번째 디스크체크섬이 기록됨 피엔, 스트라이프가 기록된 첫 번째 디스크부터 프로세스가 주기적으로 반복됩니다. DN.

녹음 과정( N–1) 스트라이프와 해당 체크섬은 모두에 대해 동시에 생성됩니다. N디스크.

체크섬을 계산하기 위해 기록 중인 데이터 블록에서 비트별 XOR 연산이 사용됩니다. 예, 있는 경우 N하드 드라이브 및 - 데이터 블록(스트라이프), 체크섬은 다음 공식으로 계산됩니다.

p n = d 1d2 ⊕ ... d n-1 .

디스크에 오류가 발생하면 제어 데이터와 정상 디스크에 남아 있는 데이터에서 디스크의 데이터를 복구할 수 있습니다. 사실 아이디를 이용해서 (ㅏ비)=그리고 = 0 , 우리는 다음을 얻습니다.

피엔⊕ (디케이n) = dlDN⊕ ...⊕ ...⊕ dn–l⊕ (디케이피엔).

dk = d1DN⊕ ...⊕ dk-1dk+1⊕ ...⊕ 피엔.

따라서 블록이 있는 디스크에 오류가 발생하면 디케이그러면 나머지 블록의 값과 체크섬으로 복원할 수 있습니다.

RAID 5의 경우 어레이에 있는 모든 디스크의 크기가 같아야 하지만 쓰기에 사용할 수 있는 디스크 하위 시스템의 총 용량은 정확히 하나의 디스크만큼 줄어듭니다. 예를 들어 5개의 디스크가 100GB인 경우 100GB가 패리티 정보에 할당되기 때문에 어레이의 실제 크기는 400GB입니다.

RAID 5 어레이는 3개 이상의 하드 드라이브에 구축할 수 있습니다. 어레이의 하드 드라이브 수가 증가하면 중복성이 감소합니다. 하나의 드라이브만 고장난 경우에도 RAID 5 어레이를 재구축할 수 있습니다. 그러나 두 개의 드라이브가 동시에 실패하면(또는 어레이가 재구축되는 동안 두 번째 드라이브가 실패하면) 어레이를 복구할 수 없습니다.

RAID 6

RAID 5 어레이는 하나의 드라이브에 장애가 발생해도 복구 가능한 것으로 나타났습니다. 그러나 때로는 RAID 5 어레이보다 더 높은 수준의 안정성을 제공해야 하는 경우가 있는데, 이 경우 RAID 6 어레이(그림 4)를 사용하면 두 개의 디스크가 동시에 고장나더라도 어레이를 복원할 수 있습니다. 시간.

쌀. 4.RAID 6 어레이

RAID 6은 RAID 5와 유사하지만 하나가 아니라 디스크 전체에 주기적으로 분산되는 두 개의 체크섬을 사용합니다. 첫 번째 체크섬 RAID 5 어레이에서와 동일한 알고리즘에 따라 계산됩니다. 즉, 다른 디스크에 기록된 데이터 블록 간의 XOR 작업입니다.

p n = d 1d2⊕ ...⊕ dn–1.

두 번째 체크섬은 다른 알고리즘을 사용하여 계산됩니다. 수학적 세부 사항에 들어가지 않고, 이것이 데이터 블록 간의 XOR 연산이기도 하지만 각 데이터 블록에 다항식 인수가 미리 곱해진다고 가정해 보겠습니다.

qn = g1d1지 2 디 2⊕ ...⊕ g n–1 d n–1 .

따라서 어레이에 있는 두 개의 디스크 용량이 체크섬에 할당됩니다. 이론적으로 RAID 6 어레이는 4개 이상의 드라이브에서 생성할 수 있지만 많은 컨트롤러에서는 최소 5개의 드라이브에서 생성할 수 있습니다.

RAID 6 어레이의 성능은 일반적으로 RAID 5 어레이(동일한 수의 드라이브 포함)보다 10-15% 낮다는 점에 유의하십시오. 두 번째 체크섬을 계산하고 각 블록이 기록될 때 더 많은 디스크 블록을 읽고 덮어쓰는 데 필요합니다.

RAID 10

RAID 10 어레이(그림 5)는 수준 0과 1의 조합입니다. 이 수준의 최소 요구 사항은 4개의 드라이브입니다. 4개의 드라이브로 구성된 RAID 10 어레이에서 이들은 쌍으로 결합되어 RAID 1 어레이로 결합되고 이 두 어레이는 논리 드라이브로 RAID 0 어레이로 결합됩니다. 다른 접근 방식도 가능합니다. 처음에는 드라이브가 RAID 0으로 결합됩니다. 어레이, 그런 다음 이러한 어레이를 기반으로 하는 논리 드라이브를 RAID 1 어레이에 연결합니다.

쌀. 5. RAID 10 어레이

RAID 50

RAID 50 어레이는 레벨 0과 5의 조합입니다(그림 6). 이 수준의 최소 요구 사항은 6개의 디스크입니다. RAID 50 어레이에서 두 개의 RAID 5 어레이가 먼저 생성된 다음(각각 최소 3개의 디스크) RAID 0 어레이에 논리 디스크로 결합됩니다.

쌀. 6.RAID 50 어레이

LSI 3ware SAS 9750-8i 컨트롤러 테스트 방법론

LSI 3ware SAS 9750-8i RAID 컨트롤러를 테스트하기 위해 특수 테스트 패키지 IOmeter 1.1.0(2010.12.02 버전)을 사용했습니다. 테스트 벤치의 구성은 다음과 같습니다.

  • 프로세서 - 인텔 코어 i7-990(걸프타운);
  • 마더보드- 기가바이트 GA-EX58-UD4;
  • 메모리 - DDR3-1066(3GB, 3채널 모드);
  • 시스템 디스크- WD 캐비어 SE16 WD3200AAKS;
  • 비디오 카드 - GIGABYTE GeForce GTX480 SOC;
  • RAID 컨트롤러 - LSI 3ware SAS 9750-8i;
  • RAID 컨트롤러에 연결된 SAS 드라이브는 Seagate Cheetah 15K.7 ST3300657SS입니다.

테스트는 수술실 통제 하에 진행되었습니다. 마이크로소프트 시스템윈도우 7 얼티밋(32비트).

RAID 컨트롤러 Windows 드라이버 버전 5.12.00.007을 사용했고 컨트롤러 펌웨어도 버전 5.12.00.007로 업데이트했습니다.

시스템 디스크는 Intel X58 칩셋의 사우스브리지에 통합된 컨트롤러를 통해 구현된 SATA에 연결되었고 SAS 디스크는 2개의 Mini-SAS SFF-8087 -> 4 SAS 케이블을 사용하여 RAID 컨트롤러의 포트에 직접 연결되었습니다.

RAID 컨트롤러는 시스템 보드의 PCI Express x8 슬롯에 설치되었습니다.

컨트롤러는 RAID 0, RAID 1, RAID 5, RAID 6, RAID 10 및 RAID 50과 같은 RAID 어레이에서 테스트되었습니다. RAID 어레이에 결합할 수 있는 드라이브 수는 각각 최소 8개에서 8개까지 다양했습니다. 배열 유형.

모든 RAID 어레이의 스트라이프 크기는 변경되지 않았으며 256KB였습니다.

IOmeter 패키지를 사용하면 논리 파티션이 생성된 디스크와 논리 파티션이 없는 디스크 모두에서 작업할 수 있습니다. 논리적 파티션을 생성하지 않고 디스크를 테스트하는 경우 IOmeter는 논리적 데이터 블록 수준에서 작동합니다. 즉, 운영 체제 대신 컨트롤러에 명령을 보내 LBA 블록을 쓰거나 읽습니다.

디스크에 논리적 파티션이 생성되면 초기에 IOmeter 유틸리티는 기본적으로 전체 논리적 파티션을 차지하는 디스크에 파일을 생성합니다 (원칙적으로이 파일의 크기는 512 바이트 수로 지정하여 변경할 수 있습니다. 섹터), 그런 다음 이미 이 파일과 함께 작동합니다. 즉, 이 파일 내의 개별 LBA 블록을 읽거나 씁니다(덮어쓰기). 그러나 다시 IOmeter는 운영 체제를 우회하여 작동합니다. 즉, 컨트롤러에 데이터 읽기/쓰기 요청을 직접 보냅니다.

일반적으로 HDD 디스크를 테스트할 때 실습에서 알 수 있듯이 생성된 논리 파티션이 있는 디스크와 없는 디스크 테스트 결과 간에는 실질적으로 차이가 없습니다. 동시에 생성된 논리 파티션 없이 테스트하는 것이 더 정확하다고 생각합니다. 이 경우 테스트 결과가 사용된 파일 시스템(NTFA, FAT, ext 등)에 의존하지 않기 때문입니다. 그래서 논리적 파티션을 만들지 않고 테스트를 수행했습니다.

또한 IOmeter 유틸리티를 사용하면 데이터를 쓰기/읽기 위한 요청 블록의 크기(전송 요청 크기)를 설정할 수 있으며, LBA 블록을 읽고 읽을 때 순차(Sequential) 읽기 및 쓰기에 대한 테스트를 모두 수행할 수 있습니다. LBA 블록이 무작위 순서로 읽고 쓰여질 때 차례로 순차적으로 기록되고 무작위(Random)의 경우. 부하 시나리오를 생성할 때 테스트 시간, 순차 작업과 무작위 작업 간의 백분율 비율(Percent Random/Sequential Distribution), 읽기 작업과 쓰기 작업 간의 백분율 비율(Percent Read/Write Distribution)을 설정할 수 있습니다. 또한 IOmeter 유틸리티를 사용하면 전체 테스트 프로세스를 자동화하고 모든 결과를 CSV 파일에 저장한 다음 Excel 스프레드시트로 쉽게 내보낼 수 있습니다.

IOmeter 유틸리티를 사용하여 수행할 수 있는 또 다른 설정은 소위 섹터 경계를 따라 데이터 전송 요청 블록 정렬(Align I/O on)입니다. 하드 드라이브. 기본적으로 IOmeter는 512바이트 디스크 섹터 경계에 요청 블록을 정렬하지만 임의 정렬을 설정할 수도 있습니다. 실제로 대부분의 하드 드라이브는 섹터 크기가 512바이트이며 최근에야 섹터 크기가 4KB인 디스크가 나타나기 시작했습니다. HDD에서 섹터는 디스크에 쓰거나 디스크에서 읽을 수 있는 주소 지정 가능한 데이터의 최소 크기입니다.

테스트 시 디스크 섹터의 ​​크기에 따라 데이터 전송 요청 블록의 정렬을 설정해야 합니다. Seagate Cheetah 15K.7 ST3300657SS 드라이브의 섹터 크기는 512바이트이므로 512바이트 섹터 경계 정렬을 사용했습니다.

IOmeter 테스트 패키지를 사용하여 순차 읽기 및 쓰기 속도와 생성된 RAID 어레이의 임의 읽기 및 쓰기 속도를 측정했습니다. 전송된 데이터 블록의 크기는 512바이트, 1, 2, 4, 8, 16, 32, 64, 128, 256, 512 및 1024KB였습니다.

위의 부하 시나리오에서 데이터 블록 전송을 위한 각 요청의 테스트 시간은 5분이었습니다. 또한 위의 모든 테스트에서 IOmeter 설정에서 태스크 큐 깊이(미결 I/O 수)를 4로 설정했으며 이는 사용자 애플리케이션에 일반적입니다.

시험 결과

테스트 결과를 분석한 후 LSI 3ware SAS 9750-8i RAID 컨트롤러의 성능에 놀랐습니다. 그리고 그들은 오류를 식별하기 위해 스크립트를 살펴보기 시작한 다음 다른 RAID 컨트롤러 설정으로 반복적으로 테스트를 반복했습니다. 스트라이프 크기와 RAID 컨트롤러 캐시 모드를 변경했습니다. 물론 이것은 결과에 반영되었지만 데이터 블록 크기에 대한 데이터 전송 속도의 일반적인 특성을 변경하지는 않았습니다. 그리고 우리는 이 의존성을 설명할 수 없었습니다. 이 컨트롤러의 작동은 완전히 비논리적으로 보입니다. 첫째, 결과가 불안정하다. 즉, 고정된 데이터 블록 크기마다 속도가 주기적으로 변하고 평균 결과에 큰 오차가 있다. 일반적으로 IOmeter 유틸리티를 사용하여 디스크 및 컨트롤러를 테스트한 결과는 안정적이며 차이가 거의 없습니다.

둘째, 블록 크기가 증가함에 따라 데이터 속도가 증가하거나 포화 모드에서 변경되지 않은 상태로 유지되어야 합니다(속도가 최대값에 도달할 때). 그러나 LSI 3ware SAS 9750-8i 컨트롤러의 경우 일부 블록 크기에서 데이터 전송 속도가 급격히 떨어집니다. 또한 RAID 5 및 RAID 6 어레이에 동일한 수의 디스크를 사용하여 쓰기 속도가 읽기 속도보다 빠른 이유는 여전히 수수께끼로 남아 있습니다. 한마디로 우리는 LSI 3ware SAS 9750-8i 컨트롤러의 작동을 설명할 수 없으며 사실만 말할 수 있습니다.

테스트 결과는 다양한 방식으로 분류될 수 있습니다. 예를 들어 부팅 시나리오별로 연결된 디스크 수가 다른 가능한 모든 RAID 어레이에 대해 각 부팅 유형에 대해 결과가 제공되는 경우 또는 RAID 어레이 유형별로 RAID 어레이 유형별로 결과가 다른 번호로 제공되는 경우 순차 읽기 시나리오, 순차 쓰기, 임의 읽기 및 임의 쓰기의 디스크 수. 또한 어레이의 드라이브 수로 결과를 분류할 수 있습니다. 컨트롤러에 연결된 각 드라이브 수에 대해 순차 읽기 및 순차 쓰기에서 가능한 모든(지정된 수의 드라이브에 대해) RAID 어레이에 대한 결과가 제공됩니다. 임의 읽기 및 임의 쓰기 시나리오.

그래프의 수가 다소 많음에도 불구하고 이러한 프레젠테이션이 더 시각적이기 때문에 결과를 배열 유형별로 분류하기로 결정했습니다.

RAID 0

RAID 0 어레이는 2~8개의 드라이브로 만들 수 있습니다. RAID 0 어레이에 대한 테스트 결과는 그림에 나와 있습니다. 7-15.

쌀. 7. 순차 읽기 및 쓰기 속도
RAID 0 어레이에 8개의 드라이브 포함

쌀. 8. 순차 읽기 및 쓰기 속도
RAID 0 어레이에 7개의 드라이브 포함

쌀. 9. 순차 읽기 속도
RAID 0 어레이에서 6개의 드라이브로 레코딩

쌀. 10. 순차 읽기 및 쓰기 속도
RAID 0 어레이에 5개의 드라이브 포함

쌀. 11. 순차 읽기 및 쓰기 속도
RAID 0 어레이에 4개의 드라이브 포함

쌀. 12. 순차 읽기 및 쓰기 속도
RAID 0 어레이에 3개의 드라이브 포함

쌀. 13. 순차 읽기 및 쓰기 속도
RAID 0 어레이에 두 개의 드라이브 포함

쌀. 14. 임의 읽기 속도
RAID 0 어레이에서

쌀. 15. RAID 0의 임의 쓰기 속도

RAID 0 어레이에서 가장 높은 순차 읽기 및 쓰기 속도는 8개의 드라이브에서 달성된다는 것이 분명합니다. RAID 0 어레이에 8개와 7개의 드라이브가 있는 경우 순차 읽기 및 쓰기 속도가 서로 거의 동일하고 드라이브 수가 적을수록 순차 쓰기 속도가 읽기 속도보다 높아진다는 사실에 주목할 필요가 있습니다.

특정 블록 크기에 대한 순차 읽기 및 쓰기 속도의 특징적인 저하를 주목하지 않는 것은 불가능합니다. 예를 들어, 어레이에 8개 및 6개의 디스크가 있는 경우 데이터 블록 크기가 1 및 64KB이고 7개의 디스크(크기가 1, 2 및 128KB)인 경우 이러한 간격이 관찰됩니다. 비슷한 오류이지만 다른 크기의 데이터 블록이 있는 경우에도 어레이에 4개, 3개 및 2개의 디스크가 있습니다.

순차적 읽기 및 쓰기 성능(모든 블록 크기에 대한 평균) 측면에서 RAID 0 어레이는 8개, 7개, 6개, 5개, 4개, 3개 및 2개의 드라이브 구성에서 가능한 다른 모든 어레이보다 성능이 뛰어납니다.

RAID 0 어레이의 임의 액세스도 매우 흥미롭습니다. 각 데이터 블록 크기에 대한 임의 읽기 속도는 어레이의 디스크 수에 비례하며 이는 상당히 논리적입니다. 또한 블록 크기가 512KB인 경우 어레이의 디스크 수에 관계없이 임의 읽기 속도가 특징적으로 저하됩니다.

어레이에 있는 임의의 수의 디스크에 대한 임의 쓰기를 사용하면 데이터 블록의 크기에 따라 속도가 증가하고 속도 저하가 없습니다. 동시에 다음 사항에 유의해야 합니다. 최고 속도이 경우 8개가 아니라 어레이에 7개의 디스크가 있으면 달성됩니다. 임의 쓰기 속도 측면에서 다음은 디스크 6개, 디스크 5개, 디스크 8개로 구성된 어레이입니다. 또한 임의 쓰기 속도 측면에서 디스크 8개 배열은 디스크 4개 배열과 거의 동일합니다.

RAID 0 어레이의 임의 쓰기 성능은 8개, 7개, 6개, 5개, 4개, 3개 및 2개의 드라이브 구성에서 사용할 수 있는 다른 모든 어레이보다 뛰어납니다. 그러나 8개 드라이브 구성에서 임의 읽기 속도 측면에서 RAID 0은 RAID 10 및 RAID 50 어레이보다 열등하지만 드라이브 수가 적은 구성에서는 RAID 0이 임의 읽기 속도에서 앞서 있습니다.

RAID 5

RAID 5 어레이는 3~8개의 드라이브로 만들 수 있습니다. RAID 5 어레이에 대한 테스트 결과는 그림에 나와 있습니다. 16-23.

쌀. 16. 순차 읽기 및 쓰기 속도
RAID 5 어레이에 8개의 드라이브 포함

쌀. 17. 순차 읽기 및 쓰기 속도
RAID 5 어레이에 7개의 드라이브 포함

쌀. 18. 순차 읽기 및 쓰기 속도
RAID 5 어레이에 6개의 드라이브 포함

쌀. 19. 순차 읽기 및 쓰기 속도
RAID 5 어레이에 5개의 드라이브 포함

쌀. 20. 순차 읽기 및 쓰기 속도
RAID 5 어레이에 4개의 드라이브 포함

쌀. 21. 순차 읽기 및 쓰기 속도
RAID 5 어레이에 3개의 드라이브 포함

쌀. 22. 임의 읽기 속도
RAID 5 어레이에서

쌀. 23. 임의 쓰기 속도
RAID 5 어레이에서

가장 높은 읽기 및 쓰기 속도는 8개의 디스크에서 달성되는 것이 분명합니다. RAID 5 어레이의 경우 순차적 쓰기 속도가 평균적으로 읽기 속도보다 높다는 점은 주목할 가치가 있습니다. 그러나 특정 요청 크기의 경우 순차 읽기 속도가 순차 쓰기 속도를 초과할 수 있습니다.

어레이의 디스크 수에 관계없이 특정 블록 크기에 대한 순차적 읽기 및 쓰기 속도의 특징적인 저하를 주목하지 않을 수 없습니다.

8개 드라이브 구성에서 RAID 5는 RAID 0 및 RAID 50보다 순차 읽기 및 쓰기 성능이 느리지만 RAID 10 및 RAID 6보다 성능이 우수합니다. 7개 드라이브 구성에서 RAID 5는 RAID 0보다 순차 읽기 및 쓰기 성능이 느립니다. RAID 6 어레이보다 성능이 뛰어납니다(다른 유형의 어레이는 주어진 수의 드라이브로는 불가능함).

6개 드라이브 구성에서 RAID 5는 RAID 0 및 RAID 50만큼만 순차적으로 읽고 RAID 0만큼만 순차적으로 씁니다.

5개, 4개 및 3개 드라이브 구성에서 RAID 5는 순차 읽기 및 쓰기 속도에서 RAID 0에 이어 두 번째입니다.

RAID 5 어레이의 임의 액세스는 RAID 0 어레이의 임의 액세스와 유사하므로 각 데이터 블록 크기에서의 임의 읽기 속도는 어레이의 디스크 수에 비례하고 블록 크기가 512KB인 경우 어레이의 디스크 수에 관계없이 무작위 읽기 속도에 특징적인 저하가 있습니다. 또한 임의 읽기 속도는 어레이의 디스크 수에 따라 약간씩 달라집니다. 즉, 임의의 디스크 수에 대해 거의 동일합니다.

임의 읽기 속도 측면에서 8개, 7개, 6개, 4개 및 3개 드라이브 구성의 RAID 5 어레이는 다른 모든 어레이보다 열등합니다. 그리고 5개 드라이브 구성에서만 RAID 6 어레이보다 약간 앞서 있습니다.

임의 쓰기 속도 측면에서 8개 드라이브 RAID 5 어레이는 RAID 0 및 RAID 50 어레이에 이어 두 번째이며, 7개 드라이브, 5개 드라이브, 4개 드라이브 및 3개 드라이브 구성은 RAID 다음으로 두 번째입니다. 0 배열.

6개 드라이브 구성에서 RAID 5는 임의 쓰기 성능 측면에서 RAID 0, RAID 50 및 RAID 10보다 낮습니다.

RAID 6

LSI 3ware SAS 9750-8i 컨트롤러를 사용하면 5~8개의 드라이브로 RAID 6 어레이를 생성할 수 있습니다. RAID 6 어레이에 대한 테스트 결과는 그림에 나와 있습니다. 24-29.

쌀. 24. 순차 읽기 및 쓰기 속도
RAID 6 어레이에 8개의 드라이브 포함

쌀. 25. 순차 읽기 및 쓰기 속도
RAID 6 어레이에 7개의 드라이브 포함

또한 어레이의 디스크 수에 관계없이 특정 블록 크기에 대한 순차적 읽기 및 쓰기 속도의 특징적인 저하에 주목합니다.

순차 읽기 속도 측면에서 RAID 6 어레이는 드라이브 수가 임의(8~5개)인 구성에서 다른 모든 어레이보다 열등합니다.

순차 쓰기 속도 측면에서는 상황이 다소 나아졌습니다. 8개 드라이브 구성에서 RAID 6은 RAID 10 어레이보다 성능이 우수하며, 6개 드라이브 구성에서는 RAID 10 및 RAID 50 어레이보다 성능이 우수합니다.

RAID 6 어레이의 임의 액세스는 RAID 0 및 RAID 5 어레이의 임의 액세스와 유사합니다. 따라서 어레이의 임의 수의 디스크에 대해 블록 크기가 512KB인 임의 읽기 속도는 임의 읽기 속도에서 특징적인 저하가 있습니다. 최대 임의 읽기 속도는 어레이의 디스크 6개에서 달성됩니다. 음, 디스크가 7개와 8개이면 임의 읽기 속도는 거의 같습니다.

어레이에 있는 임의의 수의 디스크에 대한 임의 쓰기를 사용하면 데이터 블록의 크기에 따라 속도가 증가하고 속도 저하가 없습니다. 또한 임의 쓰기 속도는 어레이의 디스크 수에 비례하지만 속도 차이는 무시할 수 있습니다.

임의 읽기 속도 측면에서 8개 및 7개 드라이브 구성의 RAID 6 어레이는 RAID 5 어레이보다 앞설 뿐이고 가능한 다른 모든 어레이보다 열등합니다.

6개 드라이브 구성에서 RAID 6은 임의 읽기 성능에서 RAID 10 및 RAID 50보다 낮고, 5개 드라이브 구성에서는 RAID 0 및 RAID 5보다 낮습니다.

무작위 쓰기 속도 측면에서 디스크가 연결된 RAID 6 어레이는 가능한 다른 모든 어레이보다 열등합니다.

일반적으로 RAID 6 어레이는 RAID 0, RAID 5, RAID 50 및 RAID 10 어레이보다 성능이 떨어진다고 말할 수 있습니다.

쌀. 33. 임의 읽기 속도
RAID 10 어레이에서

쌀. 34. RAID 10의 임의 쓰기 속도

특징적으로 8개 및 6개의 디스크 어레이에서 순차 읽기 속도가 쓰기 속도보다 빠르고 4개의 디스크 어레이에서 이러한 속도는 모든 데이터 블록 크기에서 거의 동일합니다.

RAID 10 어레이와 고려되는 다른 모든 어레이의 경우 순차적 읽기 및 쓰기 속도의 감소는 어레이의 디스크 수에 관계없이 특정 크기의 데이터 블록에 대한 특징입니다.

어레이에 있는 임의의 수의 디스크에 대한 임의 쓰기를 사용하면 데이터 블록의 크기에 따라 속도가 증가하고 속도 저하가 없습니다. 또한 임의 쓰기 속도는 어레이의 디스크 수에 비례합니다.

순차 읽기 속도 면에서 RAID 10은 8개, 6개, 4개의 드라이브 구성에서 RAID 0, RAID 50, RAID 5 어레이를 따르고 순차 쓰기 속도 면에서는 RAID 6보다 열등합니다. RAID 0 어레이, RAID 50, RAID 5 및 RAID 6을 따릅니다.

그러나 임의 읽기 속도 측면에서 RAID 10 어레이는 8개, 6개 및 4개의 드라이브 구성에서 다른 모든 어레이보다 성능이 뛰어납니다. 그러나 임의 쓰기 속도 측면에서 이 어레이는 8개 드라이브 구성에서 RAID 0, RAID 50 및 RAID 5 어레이, 6개 드라이브 구성에서 RAID 0 및 RAID 50 어레이, 4개 드라이브 구성.

RAID 50

RAID 50 어레이는 6개 또는 8개의 드라이브에 구축할 수 있습니다. RAID 50 어레이에 대한 테스트 결과는 그림에 나와 있습니다. 35-38.

무작위 읽기 시나리오와 다른 고려 대상 어레이의 경우 블록 크기가 512KB일 때 특징적인 성능 저하가 있습니다.

어레이에 있는 임의의 수의 디스크에 대한 임의 쓰기를 사용하면 데이터 블록의 크기에 따라 속도가 증가하고 속도 저하가 없습니다. 또한 임의 쓰기 속도는 어레이의 디스크 수에 비례하지만 속도 차이는 미미하며 데이터 블록 크기가 큰(256KB 이상) 경우에만 관찰됩니다.

순차 읽기 속도 측면에서 RAID 50은 RAID 0(8개 및 6개 드라이브 구성에서)에 이어 두 번째입니다. 순차적 쓰기 속도 측면에서도 RAID 50은 8개 드라이브 구성에서 RAID 0에 이어 두 번째이며, 6개 드라이브 구성에서는 RAID 0, RAID 5 및 RAID 6에 뒤처집니다.

그러나 임의 읽기 및 쓰기 속도 측면에서 RAID 50 어레이는 RAID 0 어레이에 이어 두 번째이며 8개 및 6개의 디스크로 가능한 다른 모든 어레이보다 앞서 있습니다.

RAID 1

이미 언급했듯이 두 개의 디스크에만 구축할 수 있는 RAID 1 어레이는 이러한 컨트롤러에서 사용하기에는 비실용적입니다. 그러나 완전성을 위해 두 개의 드라이브에 있는 RAID 1 어레이에 대한 결과를 제시합니다. RAID 1 어레이에 대한 테스트 결과는 그림에 나와 있습니다. 39와 40.

쌀. 39. RAID 1 어레이의 순차적 쓰기 및 읽기 속도

쌀. 40. RAID 1 어레이의 임의 쓰기 및 읽기 속도

RAID 10 어레이와 고려되는 다른 모든 어레이의 경우 특정 크기의 데이터 블록에서 순차적 읽기 및 쓰기 속도의 저하가 특징적입니다.

임의 읽기 시나리오에서는 다른 어레이와 마찬가지로 블록 크기가 512KB일 때 특징적인 성능 저하가 있습니다.

임의 쓰기를 사용하면 데이터 블록의 크기에 따라 속도가 증가하고 속도 저하가 없습니다.

RAID 1 어레이는 RAID 0 어레이에만 매핑할 수 있습니다(드라이브가 두 개인 경우 추가 어레이가 불가능하기 때문). RAID 1 어레이는 임의 읽기를 제외한 모든 로드 시나리오에서 2개의 드라이브가 있는 RAID 0 어레이보다 성능이 떨어진다는 점에 유의해야 합니다.

결론

Seagate Cheetah 15K.7 ST3300657SS SAS 드라이브와 함께 LSI 3ware SAS 9750-8i 컨트롤러를 테스트한 느낌은 다소 모호했습니다. 한편으로 그는 뛰어난 기능, 반면에 특정 크기의 데이터 블록에서 속도 저하가 발생하면 실제 환경에서 작동할 때 RAID 어레이의 성능에 영향을 미치게 됩니다.

Hitachi SAS-2 드라이브를 사용한 RAID 6, 5, 1 및 0 어레이 테스트

분명히 괜찮은 전문가용 8포트 RAID 컨트롤러가 상당히 비싼 비용을 지불하던 시대는 지나간 것 같습니다. 오늘날 가격과 기능 및 성능 측면에서 매우 매력적인 SAS(Serial Attached SCSI) 인터페이스용 솔루션이 있습니다. 그들 중 하나에 대해 - 이 리뷰.

컨트롤러 LSI MegaRAID SAS 9260-8i

이전에 우리는 가장 간단한 SAS 및 SATA RAID 어레이를 기반으로 엔트리 레벨 스토리지 시스템을 구성하도록 설계된 매우 저렴한 8포트 LSI SAS 9211-8i HBA 컨트롤러와 6Gb/s의 전송 속도를 가진 2세대 SAS 인터페이스에 대해 이미 썼습니다. .드라이브. LSI MegaRAID SAS 9260-8i 모델은 더 높은 등급이 될 것입니다. 레벨 5, 6, 50 및 60(ROC 기술 - RAID On Chip) 어레이의 하드웨어 계산 기능을 갖춘 보다 강력한 프로세서와 효율적인 데이터 캐싱을 위한 온보드 SDRAM 메모리 양(512MB). 이 컨트롤러는 6Gb/s SAS 및 SATA 인터페이스도 지원하며 어댑터 자체는 PCI Express x8 버전 2.0 버스(레인당 5Gb/s)용으로 설계되어 이론적으로 8개의 고속 SAS 요구 사항을 충족하기에 충분합니다. 포트. 그리고이 모든 것-약 $ 500의 소매 가격, 즉 예산 LSI SAS 9211-8i보다 몇 백 더 비쌉니다. 그건 그렇고, 제조업체 자체는이 솔루션을 MegaRAID Value Line 시리즈, 즉 경제적인 솔루션이라고 말합니다.




LSIMegaRAID SAS9260-8i 8포트 SAS 컨트롤러 및 DDR2 메모리가 있는 SAS2108 프로세서

LSI SAS 9260-8i 보드는 로우 프로파일(MD2 폼 팩터)을 갖고 있으며 2개의 내부 Mini-SAS 4X 커넥터가 장착되어 있습니다(각 커넥터는 최대 4개의 SAS 드라이브를 직접 연결하거나 포트 멀티플라이어를 통해 그 이상을 연결할 수 있음). PCI Express 버스 x8 2.0용이며 RAID 레벨 0, 1, 5, 6, 10, 50, 60, 동적 SAS 기능 등을 지원합니다. 등. LSI SAS 9260-8i 컨트롤러는 1U 및 2U 랙 서버(중급 및 고급 서버)와 ATX 및 Slim-ATX 케이스(워크스테이션용) 모두에 설치할 수 있습니다. RAID는 하드웨어 내장형 LSI SAS2108 프로세서(800MHz의 PowerPC 코어)에 의해 지원되며 ECC를 지원하는 512MB의 DDR2 800MHz 메모리가 부족합니다. LSI는 읽기의 경우 최대 2.8GB/s, 쓰기의 경우 최대 1.8GB/s의 프로세서 데이터 속도를 약속합니다. 어댑터의 풍부한 기능 중에서 온라인 용량 확장(OCE), 온라인 RAID 레벨 마이그레이션(RLM)(이동 중 볼륨 확장 및 어레이 유형 변경), SafeStore 암호화 서비스 및 인스턴트 보안 기능에 주목할 가치가 있습니다. 지우기(디스크의 데이터 암호화 및 데이터의 안전한 삭제), 솔리드 스테이트 드라이브(SSD Guard 기술) 지원 등. 등. 옵션인 배터리 모듈을 이 컨트롤러에 사용할 수 있습니다(최대 작동 온도가 섭씨 +44.5도를 초과하지 않아야 함).

LSI SAS 9260-8i 컨트롤러 주요 사양

시스템 인터페이스PCI Express x8 2.0(5GT/s), 버스 마스터 DMA
디스크 인터페이스SAS-2 6Gb/s(SSP, SMP, STP 및 SATA 프로토콜 지원)
SAS 포트 수8(2 x4 Mini-SAS SFF8087), 포트 멀티플라이어를 통해 최대 128개의 드라이브 지원
RAID 지원레벨 0, 1, 5, 6, 10, 50, 60
CPULSI SAS2108 ROC(PowerPC @ 800MHz)
내장 캐시512MB ECC DDR2 800MHz
에너지 소비, 더 이상24W(PCIe 슬롯에서 +3.3V 및 +12V 공급)
작동/보관 온도 범위0…+60°С / −45…+105°С
폼 팩터, 치수MD2 로우 프로파일, 168×64.4mm
MTBF 값>2백만 시간
제조업체 보증3 년

LSI MegaRAID SAS 9260-8i의 일반적인 응용 분야는 다음과 같습니다. 다양한 비디오 스테이션(주문형 비디오, 비디오 감시, 비디오 생성 및 편집, 의료 이미지), 고성능 컴퓨팅 및 디지털 데이터 아카이브, 다양한 서버(파일, 웹, 메일, 데이터베이스). 일반적으로 대부분의 작업은 중소기업에서 해결됩니다.

"제목"에 경솔하게 웃는 이빨이 있는 여성의 얼굴이 있는 흰색-주황색 상자(분명히 턱수염이 난 시스템 관리자와 가혹한 시스템 빌더를 더 잘 유인하기 위해)에는 컨트롤러 보드, ATX에 설치하기 위한 브래킷, Slim-ATX 케이스 등이 있습니다. ., 한쪽 끝에는 Mini-SAS 커넥터가 있고 다른 쪽에는 일반 SATA(전원 없음)가 있는 4-디스크 케이블 2개(컨트롤러에 최대 8개의 드라이브 연결용), 다양한 버전의 PDF 문서 및 드라이버가 포함된 CD Windows, Linux(SuSE 및 RedHat), Solaris 및 VMware.


LSI MegaRAID SAS 9260-8i 박스형 컨트롤러 패키지(MegaRAID 고급 서비스 하드웨어 키 미니 카드는 별도 요청 시 사용 가능)

LSI MegaRAID SAS 9260-8i 컨트롤러용 전용 하드웨어 키(별매)로, 소프트웨어 기술 LSI MegaRAID 고급 서비스: MegaRAID Recovery, MegaRAID CacheCade, MegaRAID FastPath, LSI SafeStore Encryption Services(이 문서의 범위를 벗어남). 특히 SSD(Solid State Drive)를 시스템에 추가하여 기존 디스크(HDD) 어레이의 성능을 향상시키는 측면에서 SSD가 2차 캐시 역할을 하는 MegaRAID CacheCade 기술이 유용할 것입니다. 경우에 따라 HDD 어레이(HDD용 하이브리드 솔루션의 아날로그)는 디스크 하위 시스템의 성능을 최대 50배까지 향상시킵니다. 또한 관심 있는 MegaRAID FastPath 솔루션은 SAS2108 프로세서의 I/O 처리 대기 시간을 줄여(HDD 최적화를 비활성화하여) SAS 9260에 직접 연결된 여러 SSD(Solid State Drive) 어레이의 속도를 높일 수 있습니다. 8i 포트.

컨트롤러 및 해당 어레이의 구성, 설정 및 유지 관리 작업은 운영 체제 환경의 기업 관리자에서 보다 편리하게 수행됩니다(메뉴의 설정). BIOS 설정컨트롤러 자체가 충분히 풍부하지 않습니다. 기본 기능만 사용할 수 있습니다.) 특히 관리자에서는 몇 번의 마우스 클릭만으로 어레이를 구성하고 운영 정책(캐싱 등)을 설정할 수 있습니다. 스크린샷을 참조하세요.




RAID 레벨 5(상단) 및 1(하단)을 구성하기 위한 Windows 관리자의 예시 스크린샷.

테스트

LSI MegaRAID SAS 9260-8i의 기본 성능(MegaRAID 고급 서비스 하드웨어 키 및 관련 기술 제외)을 알아보기 위해 스핀들 속도가 15K rpm이고 SAS-2 인터페이스를 지원하는 5개의 고성능 SAS 드라이브를 사용했습니다( 6Gb / c) - 300GB 용량의 Hitachi Ultrastar 15K600 HUS156030VLS600.


상단 덮개가 없는 Hitachi Ultrastar 15K600 하드 드라이브

이를 통해 RAID 6, 5, 10, 0 및 1과 같은 모든 기본 수준의 어레이를 테스트할 수 있으며 각 어레이에 대한 최소 디스크 수뿐만 아니라 "성장을 위해", 즉 추가할 때에도 테스트할 수 있습니다. ROC 칩의 4채널 SAS 포트 중 두 번째에 디스크를 연결합니다. 이 기사의 주인공은 동일한 요소 기반을 기반으로 하는 4포트 LSI MegaRAID SAS 9260-4i 컨트롤러라는 단순화된 아날로그를 가지고 있습니다. 따라서 우리의 4-디스크 어레이 테스트는 동일하게 적용할 수 있습니다.

Hitachi HUS156030VLS600의 최대 페이로드 순차 읽기/쓰기 속도는 약 200MB/s입니다(차트 참조). 읽을 때 평균 임의 액세스 시간(사양에 따름) - 5.4ms. 내장 버퍼 - 64MB.


Hitachi Ultrastar 15K600 HUS156030VLS600 순차 읽기/쓰기 속도 그래프

테스트 시스템은 인텔 프로세서제온 3120, 마더보드와 함께 인텔 칩셋 P45 및 2GB의 DDR2-800 메모리. SAS 컨트롤러는 PCI Express x16 v2.0 슬롯에 설치되었습니다. 테스트는 수술실의 통제하에 수행되었습니다. Windows 시스템 XP SP3 Professional 및 Windows 7 Ultimate SP1 x86(클린 미국 버전) 해당 서버(각각 Windows 2003 및 2008)는 우리가 작업하는 데 사용하는 일부 벤치마크 및 스크립트를 허용하지 않기 때문입니다. 사용된 테스트는 AIDA64, ATTO Disk Benchmark 2.46, Intel IOmeter 2006, Intel NAS Performance Toolkit 1.7.1, C'T H2BenchW 4.13/4.16, HD Tach RW 3.0.4.0, Futuremark의 PCMark Vantage 및 PCMark05입니다. 테스트는 할당되지 않은 볼륨(IOmeter, H2BenchW, AIDA64)과 포맷된 파티션 모두에서 수행되었습니다. 후자의 경우(NASPT 및 PCMark의 경우) 어레이의 물리적 시작 부분과 중간 부분(가용 용량이 최대인 어레이 볼륨을 2개의 동일한 논리 파티션으로 나눴습니다) 모두에 대해 결과를 가져왔습니다. 이를 통해 대부분의 브라우저에서 파일 벤치마크를 수행하는 가장 빠른 초기 볼륨 섹션이 디스크의 다른 섹션에 대한 상황을 반영하지 않는 경우가 많기 때문에 솔루션의 성능을 보다 적절하게 평가할 수 있습니다. 실제 업무에 적극적이다.

모든 테스트는 5회 수행되었으며 결과의 평균을 냈습니다. 전문 디스크 솔루션을 평가하기 위한 업데이트된 방법론을 별도의 기사에서 자세히 살펴보겠습니다.

이 테스트에서 컨트롤러 펌웨어 버전 12.12.0-0036 및 드라이버 버전 4.32.0.32를 사용했다는 점을 추가해야 합니다. 모든 어레이 및 드라이브에 대한 쓰기 및 읽기 캐싱이 활성화되었습니다. 아마도 더 현대적인 펌웨어와 드라이버를 사용함으로써 동일한 컨트롤러의 초기 테스트 결과에서 볼 수 있는 이상한 점을 피할 수 있었을 것입니다. 우리의 경우 그러한 사건은 관찰되지 않았습니다. 그러나 우리는 FC-Test 1.0 스크립트도 사용하지 않습니다. 이는 결과의 신뢰성 측면에서 매우 의심스럽습니다(동일한 동료가 "혼란, 동요 및 예측 불가능성을 호출하기를 원함"). 우리는 일부 파일 패턴(특히, 100KB 미만의 많은 작은 파일 세트)에서 실패를 반복적으로 발견했습니다.

아래 차트는 8개의 어레이 구성에 대한 결과를 보여줍니다.

  1. 5개 디스크의 RAID 0;
  2. 4개 드라이브 중 RAID 0;
  3. 5개 디스크 중 RAID 5;
  4. 4개 드라이브 중 RAID 5;
  5. 5개 디스크 중 RAID 6;
  6. 4개 드라이브 중 RAID 6;
  7. 4개 드라이브 중 RAID 1;
  8. 2개 드라이브 중 RAID 1.

LSI에서 4개 디스크의 RAID 1 어레이(위 스크린샷 참조)는 일반적으로 RAID 10이라고 하는 스트라이프 + 미러 어레이를 의미합니다(이는 테스트 결과로도 확인됨).

시험 결과

리뷰 웹 페이지에 무수한 차트 세트, 때로는 정보가 없고 피곤한(일부 "광견병 동료"가 종종 죄를 짓는 :)) 과부하를 방지하기 위해 일부 테스트의 자세한 결과를 다음과 같이 요약했습니다. 테이블. 우리 결과의 복잡성을 분석하고자 하는 사람들(예를 들어, 가장 중요한 작업에서 피고인의 행동을 알아내기 위해)은 스스로 이를 수행할 수 있습니다. 평균 지표뿐만 아니라 가장 중요하고 핵심적인 테스트 결과에 중점을 둘 것입니다.

먼저 "순수한 물리적" 테스트 결과를 살펴보겠습니다.

단일 Hitachi Ultrastar 15K600 HUS156030VLS600 드라이브에서 읽기에 대한 평균 임의 액세스 시간은 5.5ms입니다. 그러나 어레이로 구성할 때 이 표시기는 약간 변경됩니다. "미러" 어레이의 경우 감소하고(LSI SAS9260 컨트롤러의 효과적인 캐싱으로 인해) 다른 모든 어레이의 경우 증가합니다. 레벨 6 어레이에서 가장 큰 증가(약 6%)가 관찰되었습니다. 컨트롤러가 동시에 가장 많은 수의 디스크에 액세스해야 하기 때문입니다(RAID 6의 경우 3개, RAID 5의 경우 2개, RAID 0의 경우 1개). 이 테스트는 어레이 스트라이핑 블록의 크기보다 훨씬 작은 512바이트 블록에서만 발생합니다.

쓰기(512바이트의 블록) 동안 배열에 대한 임의 액세스 상황은 훨씬 더 흥미롭습니다. 단일 디스크의 경우 이 매개변수는 약 2.9ms(호스트 컨트롤러에 캐싱 없음)이지만 LSI SAS9260 컨트롤러의 어레이에서는 컨트롤러. 흥미롭게도 RAID 0 어레이에서 가장 극적인 효과를 얻을 수 있습니다(쓰기 중 임의 액세스 시간이 단일 드라이브에 비해 거의 10배 감소)! 이는 여러 서버 작업에서 이러한 어레이의 성능에 유익한 영향을 미칠 것입니다. 동시에 XOR 계산(즉, SAS2108 프로세서의 높은 부하)이 있는 어레이에서도 강력한 컨트롤러 캐시 덕분에 임의 쓰기 액세스가 명백한 성능 저하로 이어지지 않습니다. 당연히 RAID 6은 여기에서 RAID 5보다 약간 느리지만 그 차이는 본질적으로 미미합니다. 나는 이 테스트에서 단일 "미러"의 동작에 다소 놀랐는데, 이는 쓰기 시 가장 느린 임의 액세스를 보여주었습니다(아마도 이것은 이 컨트롤러의 마이크로코드의 "기능"일 것입니다).

모든 어레이에 대한 선형(순차적) 읽기 및 쓰기 속도 그래프(대형 블록)에는 특성이 없으며(컨트롤러 쓰기 캐싱이 활성화된 경우 읽기 및 쓰기에 대해 거의 동일함) 디스크 수에 따라 크기가 조정됩니다. "유용한 » 프로세스에 동시에 참여합니다. 즉, 디스크 5개로 구성된 RAID 0 디스크의 경우 단일 디스크(1GB/s에 도달!)에 비해 속도가 "5배", 디스크 5개로 구성된 RAID 5의 경우 "4배", RAID 6의 경우 "트리플"(트리플) , 물론 :)), 4개 디스크의 RAID 1의 경우 두 배가 되며("y2eggs" 없음! :)) 단순 미러의 경우 단일 디스크의 그래프를 복제합니다. 이 패턴은 특히 지표 측면에서 명확하게 볼 수 있습니다. 최고 속도 ATTO 디스크 벤치마크 2.46 테스트 다이어그램(Windows 7 및 XP에 대한 이 테스트의 결과는 거의 동일함)으로 설명할 큰 블록(256KB ~ 2MB)의 실제 대용량(256MB) 파일 읽기 및 쓰기.

여기서는 5개 디스크의 RAID 6 어레이에서 파일을 읽는 경우만 예기치 않게 일반 그림에서 벗어났습니다(결과는 반복적으로 재확인됨). 그러나 64KB 읽기 블록의 경우 속도가 주어진 배열그로 인해 600MB / s를 얻었습니다. 따라서 이 사실을 현재 펌웨어의 "기능"으로 작성해 봅시다. 또한 실제 파일을 쓸 때 큰 컨트롤러 버퍼의 캐싱으로 인해 속도가 약간 더 높고 읽기와의 차이가 더 눈에 띄고 어레이의 실제 선형 속도가 낮습니다.

일반적으로 버퍼 쓰기 및 읽기(동일한 디스크 볼륨 주소에 대한 다중 액세스) 측면에서 측정되는 인터페이스 속도의 경우 포함으로 인해 거의 모든 어레이에서 동일한 것으로 나타났습니다. 이러한 어레이에 대한 컨트롤러 캐시( . 표 참조). 따라서 테스트에 참여한 모든 참가자의 녹음 성능은 약 2430MB/s였습니다. 그것을주의해라 PCI 버스 Express x8 2.0은 이론적으로 40Gb / s 또는 5Gb / s의 속도를 제공하지만 유용한 데이터에 따르면 이론적 한계는 4Gb / s로 낮습니다. 이는 컨트롤러가 실제로 버전 2.0에서 작동했음을 의미합니다. PCIe 버스. 따라서 우리가 측정한 2.4GB/s는 분명히 실제 처리량컨트롤러의 온보드 메모리 (보드의 ECC 칩 구성에서 볼 수 있듯이 32 비트 데이터 버스가있는 DDR2-800 메모리는 이론적으로 최대 3.2GB / s를 제공합니다). 어레이를 읽을 때 캐싱은 쓰기만큼 "포괄적"이지 않으므로 유틸리티에서 측정되는 "인터페이스"의 속도는 일반적으로 컨트롤러의 캐시 메모리를 읽는 속도보다 느립니다(일반적으로 2.1GB/s 레벨 5 및 6의 어레이) , 경우에 따라 하드 드라이브 자체 버퍼의 읽기 속도(단일 하드 드라이브의 경우 약 400MB/s, 위 그래프 참조)에 숫자를 곱한 값으로 "떨어집니다" 어레이의 "연속적인" 드라이브 수(결과에서 RAID 0과 1의 경우가 정확히 일치함).

글쎄, 우리는 첫 번째 근사치에서 "물리학"을 알아 냈습니다. 이제 "가사", 즉 "실제"애플리케이션 소년의 테스트로 넘어갈 때입니다. 그건 그렇고, 복잡한 사용자 작업을 수행할 때 배열의 성능이 대용량 파일을 읽고 쓸 때 확장되는 것처럼 선형적으로 확장되는지 여부를 알아내는 것은 흥미로울 것입니다(바로 위의 ATTO 테스트 다이어그램 참조). 호기심 많은 독자가 이미 이 질문에 대한 답을 예측할 수 있었으면 합니다.

식사의 "서정적" 부분에 대한 "샐러드"로서 PCMark Vantage 및 PCMark05 패키지(각각 Windows 7 및 XP에서)의 데스크톱 기반 디스크 테스트와 유사한 "트랙" 응용 프로그램 테스트를 제공합니다. 권위 있는 독일 잡지 C'T의 H2BenchW 4.13 패키지에서. 예, 이 테스트는 원래 데스크탑 및 저비용 워크스테이션 하드 드라이브를 평가하도록 설계되었습니다. 디스크에서 일반적인 고급 작업 실행을 에뮬레이트합니다. 개인용 컴퓨터- 비디오, 오디오, 포토샵, 바이러스 백신, 게임, 스왑 파일 작업, 응용 프로그램 설치, 파일 복사 및 쓰기 등. -디스크 어레이는 다른 작업을 수행할 가능성이 더 높습니다. 그럼에도 불구하고 상대적으로 저렴한 솔루션을 포함하여 제조업체 자체가이 RAID 컨트롤러를 배치한다는 사실에 비추어 볼 때 이러한 테스트 작업 클래스는 실제로 그러한 어레이에서 실행될 특정 비율의 응용 프로그램을 특성화 할 수 있습니다 (동일한 작업 비디오, 전문 그래픽 처리, OS 및 리소스 집약적 애플리케이션 교체, 파일 복사, 바이러스 백신 등). 따라서 이 세 가지 복잡한 벤치마크의 중요성은 일반 패키지과소 평가해서는 안됩니다.

인기 있는 PCMark Vantage에서 평균적으로(다이어그램 참조) 매우 놀라운 사실을 관찰했습니다. 이 다중 디스크 솔루션의 성능은 사용된 어레이 유형에 거의 의존하지 않습니다! 그런데 특정 제한 내에서 이 결론은 PCMark Vantage 및 PCMark05 패키지에 포함된 모든 개별 테스트 트랙(작업 유형)에도 유효합니다(자세한 내용은 표 참조). 이는 컨트롤러 펌웨어 알고리즘(캐시 및 디스크 포함)이 이러한 유형의 애플리케이션 작동의 세부 사항을 거의 고려하지 않거나 이러한 작업의 주요 부분이 컨트롤러 자체의 캐시 메모리에서 수행됨을 의미할 수 있습니다. (그리고 아마도 우리는 이 두 가지 요인의 조합을 관찰할 것입니다). 그러나 후자의 경우(즉, RAID 컨트롤러 캐시에서 대부분의 트랙 실행) 솔루션의 평균 성능은 그리 높지 않습니다. 이 데이터를 일부 "데스크톱"("칩셋")의 테스트 결과와 비교하십시오. ") SATA 3Gb / s 버스의 4 디스크 RAID 0 어레이 및 5 및 저렴한 단일 SSD (검토 참조). 단순한 "칩셋" 4-디스크 RAID 0(여기서 사용된 Hitachi Ultrastar 15K600보다 두 배 느린 하드 드라이브)과 비교할 때 LSI SAS9260 어레이가 PCMark 테스트에서 두 배 미만이면 상대적으로 가장 빠르지도 않습니다. 예산 "단일 SSD는 모두 확실히 잃습니다! PCMark05 디스크 테스트의 결과는 유사한 그림을 제공합니다(표 참조; 별도의 다이어그램을 그리는 것은 이치에 맞지 않음).

LSI SAS9260 기반 어레이에 대한 유사한 그림(일부 예약 포함)은 다른 "트랙" 애플리케이션 벤치마크인 C'T H2BenchW 4.13에서 볼 수 있습니다. 여기에서 (구조 측면에서) 가장 느린 2개의 어레이(4개 디스크의 RAID 6 및 간단한 "미러")만이 다른 모든 어레이보다 눈에 띄게 뒤떨어져 있으며, 그 성능은 분명히 더 이상 "충분한" 수준에 도달하지 않습니다. 이러한 복잡한 액세스 시퀀스를 위한 컨트롤러 캐시가 있는 SAS2108 프로세서의 효율성과 디스크 하위 시스템에 있습니다. 그리고 이러한 맥락에서 우리는 이 클래스의 작업에서 LSI SAS9260 기반 어레이의 성능이 사용된 어레이 유형(RAID 0, 5, 6 또는 10)에 거의 의존하지 않는다는 사실에 만족할 수 있습니다. 최종 성능을 손상시키지 않고 신뢰할 수 있는 솔루션.

그러나 "모든 것이 Maslenitsa는 아닙니다" - 테스트를 변경하고 파일에 실제 파일이 있는 어레이의 작동을 확인하는 경우 NTFS 시스템, 그림이 크게 변경됩니다. 따라서 Intel NASPT 1.7 테스트에서 많은 "사전 설치된" 시나리오는 LSI MegaRAID SAS9260-8i 컨트롤러가 장착된 컴퓨터의 일반적인 작업과 매우 직접적으로 관련되어 있으며 어레이 배치는 ATTO 테스트에서 관찰한 것과 유사합니다. 큰 파일을 읽고 쓸 때 - 어레이의 "선형" 속도가 증가함에 따라 속도가 비례하여 증가합니다.

이 차트에는 모든 NASPT 테스트 및 패턴의 평균이 표시되며 테이블에서는 자세한 결과를 볼 수 있습니다. NASPT를 Windows XP(수많은 브라우저에서 일반적으로 수행)와 Windows 7(이 테스트의 특정 기능으로 인해 덜 자주 수행됨)에서 모두 실행했음을 강조하겠습니다. 사실 Seven(및 "빅 브라더" Windows 2008 Server)은 XP보다 파일 작업 시 더 공격적인 자체 캐싱 알고리즘을 사용합니다. 또한 "Seven"에서 대용량 파일 복사는 주로 1MB 블록에서 발생합니다 (XP는 일반적으로 64KB 블록에서 작동). 이것은 "파일"Intel NASPT 테스트의 결과가 Windows XP와 Windows 7에서 크게 다르다는 사실로 이어집니다. 후자에서는 훨씬 더 높고 때로는 두 배 이상입니다! 그건 그렇고, 우리는 Windows 7에서 NASPT (및 패키지의 다른 테스트) 결과를 1GB 및 2GB의 설치된 시스템 메모리와 비교했습니다 (많은 양의 시스템 메모리로 Windows 7에서 디스크 작업 캐싱 증가하고 NASPT 결과는 더욱 높아짐) 그러나 측정 오차 내에서 어떠한 차이도 발견하지 못했습니다.

이 기사의 토론 스레드를 위해 어떤 OS(캐싱 정책 등의 측면에서)가 디스크 및 RAID 컨트롤러를 테스트하는 데 "더 나은" 것인지에 대한 논쟁은 남겨둡니다. 우리는 가능한 한 실제 작동 상황에 가까운 조건에서 드라이브 및 이를 기반으로 하는 솔루션을 테스트하는 것이 필요하다고 생각합니다. 그렇기 때문에 우리가 두 운영 체제에 대해 얻은 결과가 동일한 가치를 지닌다고 생각합니다.

그러나 NASPT 평균 성능 차트로 돌아갑니다. 보시다시피 여기에서 테스트한 어레이 중 가장 빠른 어레이와 가장 느린 어레이의 차이는 평균적으로 3배 미만입니다. 물론 이것은 대용량 파일을 읽고 쓸 때와 같이 5배의 차이는 아니지만 매우 눈에 띕니다. 어레이는 실제로 선형 속도에 비례하여 위치하며 이것은 기뻐할 수밖에 없습니다. 이는 LSI SAS2108 프로세서가 레벨 5 및 6의 어레이가 활발하게 작동할 때 병목 현상을 거의 일으키지 않고 데이터를 매우 빠르게 처리한다는 것을 의미합니다.

공평하게, NASPT에는 H2BenchW가 있는 PCMark에서와 동일한 그림이 관찰되는 패턴(12개 중 2개)도 있습니다. 즉, 테스트된 모든 어레이의 성능이 거의 동일합니다! Office Productivity 및 Dir Copy to NAS입니다(표 참조). 이는 특히 Windows 7에서 명백하지만 Windows XP의 경우 "컨버전스" 경향이 분명합니다(다른 패턴에 비해). 그러나 H2BenchW를 사용하는 PCMark에는 선형 속도에 비례하여 어레이 성능이 증가하는 패턴이 있습니다. 따라서 일부 사람들이 원하는 것처럼 모든 것이 단순하고 모호하지 않습니다.

처음에는 모든 애플리케이션 테스트(PCMark + H2BenchW + NASPT + ATTO)에서 평균을 낸 어레이의 전체 성능 차트에 대해 논의하고 싶었습니다. 즉, 다음과 같습니다.

그러나 여기에서는 논의할 내용이 많지 않습니다. 특정 애플리케이션의 작동을 에뮬레이트하는 테스트에서 LSI SAS9260 컨트롤러의 어레이 동작이 사용된 시나리오에 따라 크게 달라질 수 있음을 확인했습니다. 따라서 동시에 수행할 작업을 기반으로 특정 구성의 이점에 대한 결론을 내리는 것이 좋습니다. 그리고 또 하나의 전문 테스트는 IOmeter에 대한 합성 패턴, 스토리지 시스템의 이것 또는 저 부하를 에뮬레이션하는 데 크게 도움이 될 수 있습니다.

IOmeter에서 테스트

이 경우 액세스 블록의 크기, 쓰기 비율, 임의 액세스 비율 등에 따라 작업 속도를 신중하게 측정하는 수많은 패턴에 대한 논의는 생략합니다. 거의 유용한 제공 현실적인 순전히 이론적으로 정보와 관심이 있습니다. 결국, 우리는 이미 위에서 "물리학"에 관한 주요 실제 사항을 명확히 했습니다. 실제 작업을 모방하는 패턴인 서버에 집중하는 것이 더 중요합니다. 다양한 방식, 뿐만 아니라 파일 작업.

File Server, Web Server 및 DataBase(데이터베이스 서버)와 같은 서버를 에뮬레이트하기 위해 인텔과 StorageReview.com에서 동시에 제안한 동일한 이름의 잘 알려진 패턴을 사용했습니다. 모든 경우에 대해 명령 큐 깊이(QD)가 1에서 256까지 2단계인 어레이를 테스트했습니다.

전체 어레이 내에서 8KB 블록에서 무작위 디스크 액세스를 사용하는 데이터베이스 패턴에서 명령 대기열 깊이가 4 이상인 패리티가 없는 어레이(즉, RAID 0 및 1)의 상당한 이점을 관찰할 수 있습니다. 모든 패리티 검사 어레이(RAID 5 및 6)는 매우 유사한 성능을 보여줍니다(선형 액세스 속도에서 두 배의 차이에도 불구하고). 상황은 쉽게 설명할 수 있습니다. 패리티가 있는 모든 어레이는 평균 랜덤 액세스 시간 테스트에서 유사한 값을 나타냈으며(위 다이어그램 참조) 이 매개변수는 주로 이 테스트의 성능을 결정합니다. 흥미롭게도 모든 어레이의 성능은 명령 대기열 깊이가 128까지 증가함에 따라 거의 선형적으로 증가하며 QD=256에서만 일부 경우에 약간의 포화 상태를 볼 수 있습니다. QD=256에서 패리티가 있는 어레이의 최대 성능은 약 1100 IOps(초당 작업)였습니다. RAID 6의 경우 초당 작업, 물론 프로세서는 다른 I/O 및 캐시 작업도 병렬로 수행합니다.

전체 볼륨 내에서 어레이에 대한 임의 읽기 및 쓰기 액세스를 위해 다양한 크기의 블록을 사용하는 파일 서버 패턴에서 DataBase와 유사한 그림을 관찰할 수 있습니다. 여기서 패리티(RAID 5 및 6) 4-디스크 대응 제품을 눈에 띄게 능가하는 동시에 거의 동일한 성능을 보여줍니다(QD=256에서 약 1200 IOps)! 분명히 컨트롤러에 있는 2개의 4레인 SAS 포트 중 두 번째에 다섯 번째 드라이브를 추가하면 어떻게든 프로세서의 계산 부하가 최적화됩니다(I/O 작업으로 인해?). LSI SAS9260에서 어레이를 구성하기 위한 최적의 구성을 식별하기 위해 드라이브가 컨트롤러의 다른 Mini-SAS 커넥터에 쌍으로 연결될 때 속도 측면에서 4-디스크 어레이를 비교할 가치가 있지만 이는 다른 기사.

작성자의 의도에 따라 클래스로서 디스크 쓰기 작업이 없는(따라서 쓰기를 위한 XOR 함수 계산) 웹 서버 패턴에서는 그림이 훨씬 더 흥미로워집니다. 사실 우리 세트(RAID 0, 5 및 6)의 3개 5개 디스크 어레이는 선형 읽기 및 패리티 계산 측면에서 눈에 띄는 차이에도 불구하고 여기에서 동일한 성능을 보여줍니다! 그건 그렇고, 동일한 3 개의 어레이이지만 4 개의 디스크도 서로 속도가 동일합니다! 그리고 RAID 1(및 10)만 그림에서 제외됩니다. 왜 이런 일이 발생하는지 판단하기 어렵습니다. 컨트롤러에는 "양호한 드라이브"(즉, 필요한 데이터가 먼저 오는 5개 또는 4개의 드라이브)를 선택하는 매우 효율적인 알고리즘이 있을 수 있으며, RAID 5 및 6의 경우 데이터 도착 가능성이 높아집니다. 필요한 계산을 위해 사전에 프로세서를 준비합니다(깊은 명령 대기열과 큰 DDR2-800 버퍼를 생각해 보십시오). 그리고 이것은 궁극적으로 XOR 계산과 관련된 지연을 보상하고 "간단한" RAID 0으로 "기회"에서 균등화할 수 있습니다. 어쨌든 LSI SAS9260 컨트롤러는 매우 높은 결과(5- 패리티가 있는 어레이의 웹 서버 패턴에서 QD=256인 디스크 어레이). 불행하게도 문제는 이러한 모든 서버 패턴에서 2-디스크 "미러"의 매우 낮은 성능이었습니다.

웹 서버 패턴은 전체 배열 공간 내에서 작은(64KB) 파일의 임의 읽기를 에뮬레이트하는 자체 패턴에 의해 반향됩니다.

다시 한 번, 결과를 그룹으로 결합했습니다. 모든 5개 디스크 어레이는 속도 측면에서 서로 동일하고 "경주"에서 앞서고, 4개 디스크 RAID 0, 5 및 6도 서로 구별할 수 없습니다. 성능 및 "DSLR"만 일반 질량에서 떨어집니다 (그런데 4 디스크 "반사", 즉 RAID 10은 다른 모든 4 디스크 어레이보다 빠릅니다. 좋은 디스크” 알고리즘). 우리는 이러한 규칙성이 큰 명령 대기열 깊이에만 유효한 반면 작은 대기열(QD=1-2)에서는 상황과 리더가 완전히 다를 수 있음을 강조합니다.

서버가 대용량 파일과 함께 작동하면 모든 것이 바뀝니다. 현대의 "무거운" 콘텐츠와 새로운 "최적화된" OS의 조건에서 창 유형 2008년 7월 서버 등 메가바이트 파일과 1MB 데이터 블록으로 작업하는 것이 점점 더 중요해지고 있습니다. 이 상황에서 전체 디스크 내에서 1MB 파일의 임의 읽기를 에뮬레이트하는 새로운 패턴(새 패턴에 대한 자세한 내용은 방법론에 대한 별도의 문서에서 설명함)은 서버를 보다 완벽하게 평가하는 데 유용합니다. LSI SAS9260 컨트롤러의 잠재력.

보시다시피 여기의 4 디스크 "거울"은 더 이상 리더십에 대한 희망을 남기지 않으며 모든 명령 순서에서 분명히 지배합니다. 또한 성능은 먼저 명령 대기열 깊이에 따라 선형적으로 증가하지만 RAID 1의 QD=16에서는 포화 상태가 됩니다(약 200MB/s). 약간 "나중에"(QD=32) 성능의 "포화"는 이 테스트에서 더 느린 어레이에서 발생합니다. 그 중 "실버"와 "브론즈"는 RAID 0에 제공되어야 하며 패리티가 있는 어레이는 예기치 않게 좋은 것으로 판명 된 두 개의 드라이브의 화려한 RAID 1 이전에도 패배하는 외부인이 되십시오. 이로 인해 우리는 읽을 때에도 대용량 파일 및 블록(무작위로 배열됨)으로 작업할 때 LSI SAS2108 프로세서의 XOR 계산 부하가 그에게 매우 부담스럽고 ​​RAID 6의 경우 실제로 두 배로 증가하고 때로는 엄청나게 크다는 결론에 도달했습니다. - 솔루션의 성능은 100MB/s를 거의 초과하지 않습니다. 즉, 선형 읽기보다 6-8배 낮습니다! "과도한" RAID 10은 여기에서 사용하는 것이 분명히 더 유리합니다.

실수로 작은 파일을 작성할 때 그림은 이전에 본 것과 다시 현저하게 다릅니다.

사실 여기서 어레이의 성능은 실제로 명령 대기열의 깊이에 의존하지 않지만(분명히 LSI SAS9260 컨트롤러의 거대한 캐시와 하드 드라이브 자체의 큰 캐시가 영향을 미침) 유형에 따라 극적으로 변합니다. 배열! 여기에서 확실한 리더는 RAID 0 프로세서에 대한 "소박한"것이며 RAID 10에서 리더에게 두 배 이상의 손실이있는 "청동"입니다. 패리티가있는 모든 어레이는 2 디스크 SLR로 매우 가까운 단일 그룹을 형성했습니다. ) , 지도자에게 세 번졌습니다. 예, 이것은 확실히 컨트롤러의 프로세서에 많은 부하를 줍니다. 그러나 솔직히 말해서 SAS2108에서 그러한 "실패"를 기대하지 않았습니다. 때로는 "칩셋" SATA 컨트롤러의 소프트 RAID 5(캐싱 포함) Windows 도구및 PC 중앙 프로세서를 사용한 계산)이 더 빠르게 작동할 수 있습니다. 그러나 컨트롤러는 여전히 "그" 440-500 IOps를 안정적으로 출력합니다. 이를 결과 섹션 시작 부분에 작성할 때 평균 액세스 시간에 대한 다이어그램과 비교하십시오. .

각각 1MB의 대용량 파일을 무작위 쓰기로 전환하면 절대 속도 표시기가 증가합니다(RAID 0의 경우 거의 해당 파일의 무작위 읽기 값, 즉 180-190MB/s). , 그러나 전체 그림은 거의 동일하게 유지됩니다. 패리티가 있는 어레이는 RAID 0보다 몇 배 더 느립니다.

RAID 10의 그림은 궁금합니다. 명령 대기열 깊이가 증가함에 따라 성능이 떨어지지만 많지는 않습니다. 다른 어레이의 경우 이러한 효과가 없습니다. 여기에서 두 개의 디스크 "거울"은 다시 겸손 해 보입니다.

이제 동일한 수로 파일을 읽고 디스크에 쓰는 패턴을 살펴보겠습니다. 이러한 부하는 특히 일부 비디오 서버의 경우 또는 동일한 어레이 내에서 파일의 활성 복사/복제/백업 중 및 조각 모음의 경우에 일반적입니다.

첫 번째 - 어레이 전체에서 무작위로 64KB의 파일.

여기서는 어레이의 절대 속도가 3배 더 빠르고 QD=256인 경우에도 일부 성능 포화가 이미 눈에 띄기는 하지만 DataBase 패턴의 결과와 약간의 유사성이 분명합니다. 이 경우 쓰기 작업의 (DataBase 패턴에 비해) 비율이 높을수록 패리티가 있는 어레이와 2개의 디스크 "미러"가 RAID 0 및 10 어레이보다 속도가 현저히 떨어지는 명백한 외부인이 된다는 사실로 이어집니다.

1MB 파일로 전환할 때 이 패턴은 일반적으로 유지되지만 절대 속도는 약 3배이고 RAID 10은 4-디스크 스트라이프만큼 빨라집니다. 이는 희소식입니다.

이 기사의 마지막 패턴은 대용량 파일을 순차적으로 읽고 쓰는 경우입니다.

그리고 여기에서 이미 많은 어레이가 300MB / s 영역에서 매우 적절한 속도로 가속됩니다. 리더(RAID 0)와 아웃사이더(디스크 2개 RAID 1) 사이의 격차가 2배 이상이지만(이 격차는 선형 읽기 또는 쓰기의 경우 5배입니다!) 상위 3위 안에 드는 RAID 5는 끌어 올린 나머지 XOR 배열은 고무적이지 않을 수 있습니다. 결국, LSI 자체가 제공하는 이 컨트롤러의 응용 프로그램 목록으로 판단하면(기사 시작 부분 참조) 많은 대상 작업이 이러한 어레이 액세스의 특정 특성을 사용할 것입니다. 그리고 확실히 고려할 가치가 있습니다.

결론적으로 위에서 언급한 모든 IOmeter 테스트 패턴의 지표가 평균화되는 최종 다이어그램을 제공합니다(가중 계수 없이 모든 패턴 및 명령 대기열에 대해 기하학적으로). 각 패턴 내에서 이러한 결과의 평균이 명령 대기열 32, 64, 128 및 256에 대해 각각 0.8, 0.6, 0.4 및 0.2의 가중치 계수를 사용하여 산술적으로 수행된다면(일반적으로 명령 대기열 깊이는 공동 작업드라이브), 1% 이내 어레이의 최종(모든 패턴에 대한) 정규화된 성능 지수는 기하 평균과 일치합니다.

따라서 IOmeter 테스트 패턴의 평균 "병원 온도"는 "수학이 있는 물리학"에서 벗어날 방법이 없음을 보여줍니다. RAID 0과 10이 분명히 선두에 있습니다. 패리티가 있는 어레이의 경우 기적은 일어나지 않았습니다. LSI SAS2108 프로세서는 경우에 따라 적절한 성능을 보여주지만 일반적으로 이러한 어레이를 단순한 "스트라이프" 수준으로 "도달"할 수 없습니다. 동시에 4디스크 구성에 비해 5디스크 구성이 확연히 추가된다는 점도 흥미롭다. 특히 5-디스크 RAID 6은 "물리학"(임의 액세스 시간 및 선형 액세스 속도) 측면에서 실제로는 동일하지만 4-디스크 RAID 5보다 확실히 빠릅니다. 2개 디스크 "미러"도 실망스러웠습니다(평균적으로 4개 디스크 RAID 6과 동일하지만 미러에는 데이터 비트당 2개의 XOR 계산이 필요하지 않음). 그러나 단순한 "미러"는 대용량 캐시와 강력한 프로세서 "온보드"를 갖춘 충분히 강력한 8포트 SAS 컨트롤러의 대상 어레이가 아닙니다. :)

가격 정보

완전한 세트가 포함된 LSI MegaRAID SAS 9260-8i 8포트 SAS 컨트롤러는 약 $500의 가격으로 제공되며 이는 꽤 매력적이라고 ​​할 수 있습니다. 간소화된 4포트 제품은 훨씬 저렴합니다. 이 기사를 읽은 시점과 관련된 모스크바 장치의 보다 정확한 현재 평균 소매 가격:

LSI SAS 9260-8iLSI SAS 9260-4i
$571() $386()

결론

위에서 말한 내용을 요약하면 8포트 LSI MegaRAID SAS9260-8i 컨트롤러에 대해 "모든 사람을 위한" 통합 권장 사항을 제공하는 위험을 감수하지 않을 것이라는 결론을 내릴 수 있습니다. 모든 사람은 시작해야 할 작업 클래스에 따라 엄격하게 사용하여 특정 어레이를 사용하고 구성해야 할 필요성에 대한 결론을 내려야 합니다. 사실 어떤 경우(일부 작업에서) 이 저렴한 "megamonster"는 이중 패리티(RAID 6 및 60)가 있는 어레이에서도 뛰어난 성능을 보여줄 수 있지만 다른 상황에서는 RAID 5 및 6의 속도가 분명히 아쉬움이 많이 남는다. . 그리고 유일한 구원(거의 보편적인)은 RAID 10 어레이뿐이며, 저렴한 컨트롤러에서 거의 동일한 성공으로 구성할 수 있습니다. 그러나 프로세서와 SAS9260-8i 캐시 덕분에 RAID 10 어레이가 솔루션의 높은 안정성을 보장하면서 동일한 디스크 수의 스트라이프보다 느리게 작동하는 경우가 많습니다. 그러나 SAS9260-8i에서 반드시 피해야 하는 것은 2개 디스크 "리플렉스"와 4개 디스크 RAID 6 및 5입니다. 이는 분명히 이 컨트롤러에 최적이 아닌 구성입니다.

Hitachi 글로벌 스토리지 기술 덕분에
테스트를 위해 제공된 하드 드라이브용.

두 개의 컴퓨터 디스크가 있으면 연결하는 것이 간단합니다. 그러나 많은 디스크를 원하면 기능이 있습니다. 이미 과거에 미끄러 졌던 Ali와 함께하는 KDPV SAS 케이블에서 예기치 않게 커뮤니티에서 따뜻한 환영을 받았습니다. 고마워, 동지들. 조금 더 넓은 범위에서 잠재적으로 유용할 수 있는 주제를 다루려고 합니다. 구체적이지만. 이 케이블과 필수 프로그램부터 시작하겠습니다. 그러나 씨앗에만 해당됩니다. 퍼즐의 다른 조각은 다른 장소에서 수집해야 합니다.
텍스트가 조밀하고 무거워 졌다는 사실을 즉시 경고하고 싶습니다. 이 모든 것을 읽고 이해하도록 강요할 필요는 없습니다. 많은 사진!

누군가 덤 케이블에 9달러라고 합니까? 해야 할 일 일상 생활에서 이것은 극히 드물게 사용되며 산업 분야의 경우 순환이 적고 가격이 높습니다. 복잡한 SAS 케이블과 100~200달러면 눈 하나 깜짝하지 않고 설치할 수 있습니다. 그래서 중국인들이 더 줄이고 있어요 :)

배송 및 포장

2017년 5월 6일에 주문하고 5월 17일에 받았습니다. 트랙이었다.

다른 하나 안에있는 일반적인 회색 패키지-충분히 상품이 깨지지 않습니다.

사양

수-수 SFF-8482 SAS 29핀 케이블.
길이 50cm
순 중량 66g

판매자의 사진

진짜 모습보시다시피 다릅니다



여분의 플라스틱에 대해 판매자는 5개가 아닌 4개의 별을 받았지만 성능에는 영향을 미치지 않습니다.

SAS 및 SATA 커넥터 정보

SFF-8482는 무엇이며 무엇과 함께 먹나요? 첫째, 이것은 예를 들어 테이프 드라이브와 같은 SAS 장치()에서 가장 방대한 커넥터입니다.



그리고 SFF-8482는 SATA 드라이브(하지만 그 반대는 아님)


비교해 보면 SATA는 데이터와 전원 사이에 간격이 있습니다. 그리고 SAS에서는 플라스틱으로 채워져 있습니다. 따라서 SAS 장치의 SATA 커넥터가 맞지 않습니다.

물론 이것은 말이 됩니다. SAS와 SATA 신호는 다릅니다. 그리고 SATA 컨트롤러는 SAS 장치와 함께 작동할 수 없습니다. SAS - 컨트롤러는 두 가지를 모두 수행할 수 있습니다(특정 상황에서는 혼합하지 말라는 조언이 있지만 집에서는 거의 현실적이지 않음)

SAS 컨트롤러 및 확장기

그래서 독자는 물을 것입니다. 이러한 호환성을 통해 무엇을 얻을 수 있습니까? SATA 컨트롤러면 충분합니다!

진정한 진실! 충분하다면 - 이 시점에서 읽기를 멈출 수 있습니다. 문제는 디스크가 많은 경우 어떻게 해야 하느냐였습니다.

내 zip의 간단한 SAS 컨트롤러는 DELL H200과 같습니다.


광산은 HBA에서 깜박입니다. 즉, 모든 차축 디스크가 별도로 표시됩니다.

그리고 이것은 고대 SAS RAID HP입니다.

둘 다 내부 커넥터(sff 8087 또는 더 자주 miniSAS라고 함)와 하나의 외부 커넥터(sff 8088)가 있습니다.

하나의 miniSAS에 몇 개의 디스크를 연결할 수 있습니까? 답은 상황에 따라 다릅니다. 무딘 케이블 - 4pcs, 즉 그러한 컨트롤러의 경우 8입니다. 내 ZIP의 케이블은 다음과 같습니다.

한쪽 끝에는 miniSAS, 다른 쪽에는 4pcs SATA(아래에 있는 커넥터가 하나 더 있음)

그러나 miniSAS-miniSAS 케이블을 사용하여 확장기, 즉 포트 멀티플라이어에 연결할 수 있습니다. 컨트롤러는 최대 256개(이백오십육개)의 디스크를 가져옵니다. 또한 채널 속도는 수십 개의 디스크에 충분합니다.
별도의 카드로 확장기는 예를 들어 내 Chenbrough처럼 보입니다.

그리고 그것은 디스크 바구니에 납땜될 수 있습니다. 그런 다음 하나의 miniSAS 채널만 들어갈 수 있습니다(또는 더 많을 수도 있음). 여기 케이블이 있습니다.


케이블 관리가 다소 단순화되었습니다. :)

바구니

디스크가 특별한 바스켓 없이도 잘 작동할 수 있다는 것은 분명합니다. 그러나 때로는 바구니가 유용할 수 있습니다.

이전 Supermicro 모델의 SATA 바스켓은 이렇게 생겼습니다. 1000r에 대해 찾을 수 있지만 오히려 5+ 천에 대해 찾을 수 있습니다.


그녀의 디스크 트레이


내부에서 보면 SATA 커넥터가 있음을 알 수 있습니다.


SAS 바스켓이 더 좋다면 전선이 더 적습니다. SCSI 또는 FC인 경우 - 사용할 수 없습니다. 나는 테스트를 위해 19 "FC 하나를 가져갔습니다. 나는 유용한 일을하지 않았습니다. 사실, 내가 그것을 구입 한 돈에 거의 비철금속 스크랩이있었습니다.


후면을 보면 SATA 4개, MOLEX 2개 및 케이블에 있던 동일한 포트가 보입니다. 디스크 활동 LED를 제어하도록 설계되었습니다.

이것은 가장 단순한 바구니 중 하나의 모습입니다(다양한 모델이 있지만 유사한 모델이 있음).


더 이상 판매되지 않으므로 세부 정보는 중요하지 않습니다. 충격 흡수 장치와 Carlson이 앞에있는 금속 조각입니다.

2013년의 모습입니다


바닥의 ​​골판지 목발과 세 번째 바구니는 2T 디스크에서 4T로 데이터를 전송하기 위해 잠시 동안만 존재했습니다. 그 이후로 연중무휴 24시간 운영되었습니다.

SAS+SATA가 있습니다.

보다 정확하게는 테이프 드라이브를 연결하기 전에 작동했습니다. 먼저 두 번째 SAS 컨트롤러를 연결하고 sff 8482용 miniSAS 케이블을 구입했습니다.

그리고 전원을 켰습니다. 모든 것이 작동했지만 24/7 모드에서는 모든 와트에 비용이 듭니다. sff 8482에서 SATA로 연결되는 어댑터를 찾고 있었는데 솔루션이 훨씬 간단해졌습니다. SATA 드라이브가 SAS sff 8482에 연결되어 있다는 것을 기억하십니까?

이제 나도 기억하지만 몇 달 동안 멍청했습니다 :) 그런 다음 추가 컨트롤러를 꺼내 디스크 중 하나를 SATA 칩셋 포트로 전환하고 다른 세 개는 sff 8482로 전환했습니다. 전원을 변경해야했습니다. 연결, Molex-SATA 스플리터가 있었고 Ali Molex-Lots of Molex에서 구입해야했습니다. 이와 같이


, 모든 것이 좋습니다.

그리고 테이프 드라이브는 모니터링 케이블을 사용하여 다른 건물로 이동했습니다. 근데 이건 별개의 곡인데, 가드, 피곤해 :)

이 모든 것을 찾을 수 있는 가장 좋은 장소는 어디입니까?

가정용 새 서버 하드웨어의 가격은 엄청납니다. 따라서 폐기되는 장비의 예비 부품을 포함합니다.
케이블로컬에서 찾을 수 있습니다. e-bay에서 비슷한 돈을 위해. 알리에서-다소 적지 만 예외가 있습니다-구매했습니다.
컨트롤러- 주로 e-bay와 유럽에서. 미국에서 가능하며 배송 문제를 어떻게 든 해결하면 훨씬 저렴합니다. 국토 - Avito에서 찾을 수 있습니다. (덩어리 - 비싸다). 중국에서 구매하는 것은 매우 위험합니다. 거절부터 가짜에 대한 불만이 많다. 작동하거나 작동하지 않습니다. 누구에게도 아무것도 증명할 수 없습니다.
바구니현지에서 검색하는 것이 더 현명합니다. 가장 단순한 바구니가 새 바구니를 구입하는 옵션도 있습니다. 전자 제품이없는 단순한 바구니는 중국과 유럽 및 벼룩 시장에서 가져갈 수 있습니다. 익스팬더가 있는 바구니 - 컨트롤러에 대한 요점을 참조하십시오.

중요 혼란스러워지는 것은 숲에서 길을 잃는 것보다 쉽습니다. 포럼에서 상담하세요. SAS는 -3, 6 및 12Gb / s가 다릅니다. 일부 컨트롤러는 데스크탑 하드웨어와 함께 사용할 수 있는 것으로 꿰매어져 있고, 다른 컨트롤러는 그렇지 않으며, 다른 컨트롤러는 기본 제조업체의 어머니를 제외하고는 전혀 치유되지 않습니다. 등등.



트렁크에 난 MikeMac

PS 이것이 당신을 위한 Captain Obvious의 공연이라면 시간을 낭비한 것에 대해 사과드립니다.
헛소리라면 더욱 진심으로 사과드립니다. 균형을 잡기가 어렵고 모든 사람이 자신의 소원, 작업 및 초기 작업을 가지고 있습니다.

나는 +33을 살 계획이다 즐겨 찾기에 추가 리뷰 좋아요 +56 +106

지난 2년 동안 거의 변경되지 않았습니다.

  • 슈퍼마이크로는 컨트롤러용 독점 "플립" UIO 폼 팩터를 버리고 있습니다. 자세한 내용은 아래에 있습니다.
  • LSI 2108(512MB 캐시가 포함된 SAS2 RAID) 및 LSI 2008(RAID 지원 옵션이 포함된 SAS2 HBA)은 여전히 ​​서비스 중입니다. LSI 및 OEM 파트너 모두에서 이러한 칩을 기반으로 하는 제품은 잘 디버깅되고 여전히 관련이 있습니다.
  • LSI 2208(LSI MegaRAID 스택이 있는 동일한 SAS2 RAID, 듀얼 코어 프로세서 및 1024MB 캐시만 있음) 및 (빠른 프로세서 및 PCI-E 3.0 지원을 갖춘 개선된 버전의 LSI 2008)가 있었습니다.

UIO에서 WIO로 전환

기억하시겠지만 UIO 보드는 일반 PCI-E x8 보드로 전체 요소 베이스가 뒷면에 있습니다. 왼쪽 라이저에 설치하면 상단에 있습니다. 이 폼 팩터는 왼쪽 라이저에 4개의 보드를 배치할 수 있는 서버의 가장 낮은 슬롯에 보드를 설치하는 데 필요했습니다. UIO는 확장 보드의 폼 팩터일 뿐만 ​​아니라 하단 확장 슬롯용 컷아웃과 라이저 설치용 슬롯이 있는 특수 폼 팩터의 라이저, 라이저 자체 및 마더보드를 설치하도록 설계된 케이스이기도 합니다.
이 솔루션에는 두 가지 문제가 있었습니다. 첫째, 확장 보드의 비표준 폼 팩터는 클라이언트의 선택을 제한했습니다. UIO 폼 팩터에는 SAS, InfiniBand 및 Ehternet과 같은 몇 가지 컨트롤러만 있습니다. 둘째, 라이저용 슬롯에 PCI-E 라인이 충분하지 않습니다. 36개만 있고 왼쪽 라이저용 라인은 24개뿐이므로 PCI-E x8이 있는 4개의 보드에는 분명히 충분하지 않습니다.
WIO란? 처음에는 "샌드위치 버터를 뒤집지 않고" 왼쪽 라이저에 4개의 보드를 배치할 수 있고 일반 보드(RSC-R2UU-A4E8+)용 라이저가 있다는 것이 밝혀졌습니다. 그런 다음 핀 밀도가 더 높은 슬롯을 사용하여 라인 부족(현재 80개) 문제를 해결했습니다.
UIO 라이저 RSC-R2UU-UA3E8+
WIO 라이저 RSC-R2UW-4E8

결과:
  • WIO 라이저는 UIO 마더보드(예: X8DTU-F)에 설치할 수 없습니다.
  • UIO 라이저는 새 WIO 보드에 설치할 수 없습니다.
  • 카드용 UIO 슬롯이 있는 WIO용 라이저(마더보드에 있음)가 있습니다. 여전히 UIO 컨트롤러가 있는 경우. 소켓 B2(6027B-URF, 1027B-URF, 6017B-URF) 아래의 플랫폼에서 사용됩니다.
  • UIO 폼 팩터의 새 컨트롤러는 나타나지 않습니다. 예를 들어 LSI 2108 칩의 USAS2LP-H8iR 컨트롤러가 마지막 컨트롤러가 될 것이며 UIO용 LSI 2208은 없고 PCI-E x8이 있는 일반 MD2만 있습니다.

PCI-E 컨트롤러

현재 LSI 2108/2208 기반 RAID 컨트롤러 및 LSI 2308 기반 HBA의 세 가지 종류가 관련되어 있습니다. Marvel 9480 칩에는 신비한 SAS2 HBA AOC-SAS2LP-MV8도 있지만 이국적이기 때문에 그것에 대해 씁니다. . 내부 SAS HBA에 대한 대부분의 사용 사례는 FreeBSD 및 다양한 Solaris 환경에서 ZFS를 사용하는 스토리지입니다. 이러한 운영 체제에서 지원 문제가 없기 때문에 100% 선택은 LSI 2008/2308에 해당합니다.
LSI 2108
UIO "shny AOC-USAS2LP-H8iR 외에도 두 개의 컨트롤러가 더 추가되었습니다.

AOC-SAS2LP-H8iR
LSI 2108, SAS2 RAID 0/1/5/6/10/50/60, 512MB 캐시, 내부 포트 8개(SFF-8087 2개). LSI 9260-8i 컨트롤러와 유사하지만 Supermicro에서 제조하고 보드 레이아웃에 약간의 차이가 있으며 가격은 LSI보다 $40-50 저렴합니다. 모든 추가 LSI 옵션이 지원됩니다: 활성화, FastPath 및 CacheCade 2.0, 캐시 배터리 보호 - LSIiBBU07 및 LSIiBBU08(이제 BBU08을 사용하는 것이 바람직하며 온도 범위가 확장되고 원격 장착용 케이블이 함께 제공됨).
LSI 2208을 기반으로 하는 보다 강력한 컨트롤러의 출현에도 불구하고 LSI 2108은 가격 인하로 인해 여전히 적합합니다. 기존 HDD의 성능은 모든 시나리오에서 충분하며 SSD 작업에 대한 IOPS 한도는 150,000으로 대부분의 예산 솔루션에 충분합니다.

AOC-SAS2LP-H4iR
LSI 2108, SAS2 RAID 0/1/5/6/10/50/60, 512MB 캐시, 내부 포트 4개 + 외부 포트 4개. LSI 9280-4i4e 컨트롤러와 유사합니다. 다음과 같이 확장기 케이스에 사용하기 편리합니다. 추가 JBOD를 연결하기 위해 확장기의 출력을 외부로 가져올 필요가 없으며, 4개의 디스크에 대한 1U 케이스에서 필요한 경우 디스크 수를 늘릴 수 있는 기능을 제공합니다.동일한 BBU 및 활성화 키를 지원합니다.
LSI 2208

AOC-S2208L-H8iR
LSI 2208, SAS2 RAID 0/1/5/6/10/50/60, 1024MB 캐시, 내부 포트 8개(SFF-8087 커넥터 2개). LSI 9271-8i 컨트롤러의 아날로그입니다. LSI 2208은 추가 개발 LSI 2108. 프로세서는 듀얼 코어가 되어 IOPS 측면에서 성능 제한을 최대 465000까지 높일 수 있었습니다. PCI-E 3.0 지원이 추가되고 캐시가 1GB로 증가했습니다.
컨트롤러는 BBU09 배터리 캐시 보호 및 CacheVault 플래시 보호를 지원합니다. Supermicro는 부품 번호 BTR-0022L-LSI00279 및 BTR-0024L-LSI00297로 이들을 공급하지만 LSI 판매 채널을 통해 구매하는 것이 더 쉽습니다(부품 번호의 두 번째 부분은 기본 LSI 부품 번호임). MegaRAID 고급 소프트웨어 옵션 활성화 키도 지원되며 부품 번호는 AOC-SAS2-FSPT-ESW(FastPath) 및 AOCCHCD-PRO2-KEY(CacheCade Pro 2.0)입니다.
LSI 2308(HBA)

AOC-S2308L-L8i 및 AOC-S2308L-L8e
LSI 2308, SAS2 HBA(IR 펌웨어 포함 - RAID 0/1/1E), 내부 포트 8개(SFF-8087 커넥터 2개). 이것은 동일한 컨트롤러이며 다른 펌웨어와 함께 제공됩니다. AOC-S2308L-L8e - IT 펌웨어(순수 HBA), AOC-S2308L-L8i - IR 펌웨어(RAID 0/1/1E 지원). 차이점은 L8i는 IR 및 IT 펌웨어와 함께 작동할 수 있고 L8e는 IT에서만 작동할 수 있으며 IR의 펌웨어는 잠겨 있다는 것입니다. LSI 9207-8 컨트롤러의 아날로그입니다. . LSI 2008과의 차이점 : 더 빠른 칩 (결과적으로 800MHz-IOPS 제한이 650,000으로 증가), PCI-E 3.0 지원이 나타났습니다. 응용 프로그램: 소프트웨어 RAID(예: ZFS), 예산 서버.
이 칩을 기반으로 RAID-5를 지원하는 저렴한 컨트롤러는 없을 것입니다(iMR 스택, 기성품 컨트롤러 중 - LSI 9240).

온보드 컨트롤러

최신 제품(X9 보드 및 플랫폼)에서 Supermicro는 부품 번호에 "7"이라는 숫자가 있는 LSI의 SAS2 컨트롤러가 있음을 나타내고 숫자 "3"은 칩셋 SAS(Intel C600)를 나타냅니다. LSI 2208과 2308을 구별하지 못하므로 보드를 선택할 때 주의하십시오.
  • 마더보드에 납땜된 LSI 2208 기반 컨트롤러는 최대 16개 디스크로 제한됩니다. 17을 추가하면 단순히 감지되지 않으며 MSM 로그에 "PD가 지원되지 않습니다"라는 메시지가 표시됩니다. 이것은 상당히 낮은 가격으로 상쇄됩니다. 예를 들어, 번들 "X9DRHi-F + 외부 컨트롤러 LSI 9271-8i"는 LSI 2008 온보드 X9DRH-7F보다 약 500달러 더 비쌉니다. LSI 9271에서 플래싱하여 이 제한을 우회하는 것은 작동하지 않습니다. LSI 2108의 경우와 같이 다른 SBR 블록을 플래싱하는 것은 도움이 되지 않습니다.
  • 또 다른 기능은 CacheVault 모듈에 대한 지원 부족입니다. 보드에 특수 커넥터를 위한 공간이 충분하지 않아 BBU09만 지원됩니다. BBU09를 설치하는 기능은 사용된 인클로저에 따라 다릅니다. 예를 들어 LSI 2208은 7127R-S6 블레이드 서버에 사용되며 BBU 커넥터가 있지만 모듈 자체를 장착하려면 추가 MCP-640-00068-0N 배터리 홀더 브래킷이 필요합니다.
  • 이제 SAS HBA(LSI 2308) 펌웨어가 필요합니다. LSI 2308이 있는 보드의 DOS에서 sas2flash.exe가 "Failed to initial PAL" 오류로 시작되지 않기 때문입니다.

Twin 및 FatTwin 플랫폼의 컨트롤러

일부 2U Twin 2 플랫폼은 세 가지 유형의 컨트롤러와 함께 세 가지 버전으로 제공됩니다. 예를 들어:
  • 2027TR-HTRF+ - 칩셋 SATA
  • 2027TR-H70RF+ - LSI 2008
  • 2027TR-H71RF+ - LSI 2108
  • 2027TR-H72RF+ - LSI 2208
이러한 다양성은 컨트롤러가 마더보드의 특수 슬롯과 디스크 백플레인에 연결되는 특수 백플레인에 배치된다는 사실에 의해 보장됩니다.
BPN-ADP-SAS2-H6IR(LSI 2108)


BPN-ADP-S2208L-H6iR(LSI 2208)

BPN-ADP-SAS2-L6i(LSI 2008)

Supermicro xxxBE16/xxxBE26 인클로저

컨트롤러와 직접 관련된 또 다른 주제는 . 케이스 후면 패널에 위치한 2.5" 디스크 2개를 위한 추가 바스켓과 함께 다양한 종류가 등장했습니다. 그 목적은 시스템을 로드하기 위한 전용 디스크(또는 미러)입니다. 물론 시스템은 작은 볼륨을 선택하여 로드할 수 있습니다. 다른 디스크 그룹 또는 케이스 내부에 고정된 추가 디스크에서(846개의 경우 1개의 3.5" 또는 2개의 2.5" 드라이브용 추가 패스너를 설치할 수 있음) 업데이트된 수정 사항이 훨씬 더 편리합니다.




또한 이러한 추가 디스크는 특별히 칩셋 SATA 컨트롤러에 연결할 필요가 없습니다. SFF8087->4xSATA 케이블을 사용하여 확장기의 SAS 출력을 통해 메인 SAS 컨트롤러에 연결할 수 있습니다.
추신 정보가 도움이 되었기를 바랍니다. 가장 완전한 정보와 기술적 지원 Supermicro, LSI, Adaptec by PMC 및 기타 공급업체의 제품에 대해서는 True System에 문의하십시오.

관련 기사: