홈페이지 Enterprise Fusion-io ioDrive2 MLC 애플리케이션 가속기 검토(1.2TB)

Fusion-io ioDrive2 MLC 애플리케이션 가속기 검토(1.2TB)

by StorageReview 엔터프라이즈 랩

Fusion-io ioDrive2 MLC 애플리케이션 가속기는 HHHL(half-height half-length) 폼 팩터에서 최대 1.2TB(또는 FHHL에서 3TB)의 용량으로 제공되며 매우 낮은 읽기 및 쓰기 액세스 대기 시간으로 강조됩니다. 이전에 검토한 결과 ioDrive2 플래그십 듀오 SLC, 가장 까다로운 애플리케이션에 적합한 MLC가 있는 ioDrive2 단일 드라이브는 더 많은 "보행자" 워크로드용으로 설계되었습니다. ioMemory 언어의 보행자는 고급 SLC ioDrive68에서 발견되는 47µs 대기 시간과 비교하여 2µs의 읽기 대기 시간을 허용할 수 있는 데이터베이스와 같은 애플리케이션을 의미합니다. 물론 MLC NAND로 드라이브를 제공하면 비용 절감과 같은 이점이 있으며 MLC 반복은 더 큰 용량으로 제공됩니다. ioDrive2 단일 MLC는 HHHL에서 최대 1.2TB 또는 FHHL에서 3TB의 용량으로 제공되는 반면 SLC Duo는 각각 600GB 및 1.2TB에서 최고입니다(듀오는 MLC 최대 용량이 1.2TB HHHL 및 2.4TB FHHL 용량으로 제공됨).


Fusion-io ioDrive2 MLC 애플리케이션 가속기는 HHHL(half-height half-length) 폼 팩터에서 최대 1.2TB(또는 FHHL에서 3TB)의 용량으로 제공되며 매우 낮은 읽기 및 쓰기 액세스 대기 시간으로 강조됩니다. 이전에 검토한 결과 ioDrive2 플래그십 듀오 SLC, 가장 까다로운 애플리케이션에 적합한 MLC가 있는 ioDrive2 단일 드라이브는 더 많은 "보행자" 워크로드용으로 설계되었습니다. ioMemory 언어의 보행자는 고급 SLC ioDrive68에서 발견되는 47µs 대기 시간과 비교하여 2µs의 읽기 대기 시간을 허용할 수 있는 데이터베이스와 같은 애플리케이션을 의미합니다. 물론 MLC NAND로 드라이브를 제공하면 비용 절감과 같은 이점이 있으며 MLC 반복은 더 큰 용량으로 제공됩니다. ioDrive2 단일 MLC는 HHHL에서 최대 1.2TB 또는 FHHL에서 3TB의 용량으로 제공되는 반면 SLC Duo는 각각 600GB 및 1.2TB에서 최고입니다(듀오는 MLC 최대 용량이 1.2TB HHHL 및 2.4TB FHHL 용량으로 제공됨).

디자인 및 빌드와 관련된 몇 가지 핵심 사항을 강조하지만 SLC Duo 검토에서 이에 대해 논의하는 데 상당한 시간을 할애했기 때문에 이 검토에서는 대부분 건너뛰고 대신 성능에 집중하는 것을 선호합니다. . Fusion-io는 FPGA를 NAND 컨트롤러로 사용합니다. 이는 FPGA에 프로그래밍 방식의 제어를 더 많이 제공하고 드라이브 수명 동안 온드라이브 로직에 대한 지속적인 사용자 정의를 허용하기 때문에 중요합니다. 또는 ASIC 펌웨어로 업데이트할 수 있지만 실리콘의 핵심 로직은 업데이트할 수 없습니다. 이 드라이브는 또한 드라이브가 다시 매핑되는 동안 데이터 손실이나 중단 시간의 위험 없이 드라이브가 NAND 장애를 겪을 수 있도록 하는 적응형 플래시백(Adaptive FlashBack) 기술을 특징으로 합니다. 마지막으로 Fusion-io는 향상된 소형 블록 성능을 제공하기 위해 VSL 소프트웨어를 개선했으며 ioSphere와 함께 시장에서 가장 강력한 드라이브 관리 소프트웨어를 제공합니다.

Fusion-io는 HHHL 폼 팩터의 2GB, 365GB 및 785TB 용량과 FHHL PCB의 1.2TB 용량으로 MLC NAND가 포함된 ioDrive3 단일 카드를 배송합니다. 모든 드라이브에는 1.2년 보증(또는 사용된 최대 내구성)이 제공됩니다. 검토 모델은 XNUMXTB 용량, HHHL 폼 팩터 모델입니다. 

Fusion-io ioDrive2 사양

  • 퍼포먼스
    • 읽기 대역폭(1MB): 1.5GB/s(3TB, 1.2TB, 785GB), 910MB/s(365GB)
    • 쓰기 대역폭(1MB): 1.3GB/s(3TB, 1.2TB), 1.1GB/초(785GB) 590MB/초(365GB)
    • 란. 읽기 IOPS(512B): 143,000(3TB), 275,000(1.2TB); 270,000(785GB); 137,000(365GB)
    • 란. 쓰기 IOPS(512B): 535,000(3TB, 365GB); 800,000(1.2TB, 765GB)
    • 란. 읽기 IOPS(4K): 136,000(3TB), 245,000(1.2TB); 215,000(785GB); 110,000(365GB)
    • 란. 쓰기 IOPS(4K): 242,000(3TB), 250,000(1.2TB), 230,000(785GB) 140,000(365GB)
    • 읽기 액세스 대기 시간: 68µs(전체)
    • 쓰기 액세스 대기 시간: 15µs(모두)
  • 2xnm MLC 낸드 플래시 메모리
  • 버스 인터페이스: PCI-Express 2.0 x4
  • 무게: FHHL의 경우 9온스, HHHL의 경우 6.6온스
  • 폼 팩터: 절반 높이, 절반 길이(HHHL)
  • 보증: 5년 또는 사용된 최대 내구성
  • 내구성: 16.26PB
  • 지원되는 운영 체제
    • 마이크로소프트 윈도우: 64비트 윈도우 서버 2012, 윈도우 서버 2008 R2, 윈도우 서버 2008, 윈도우 서버 2003
    • 리눅스: RHEL 5/6; SLES 10/11; 오엘 5/6; 센트OS 5/6; 데비안 스퀴즈; 페도라 16/17; 오픈수세 12; 우분투 10/11/12
    • 유닉스: 솔라리스 10/11 x64; 오픈솔라리스 2009.06 x64; OSX 10.6/10.7/10.8
    • 하이퍼바이저: VMware ESX 4.0/4.1/ESXi 4.1/5.0/5.1, Windows 2008 R2(Hyper-V 포함), Hyper-V Server 2008 R2

설계 및 구축

Fusion-io ioDrive2 1.2TB MLC는 HHHL(Half-Height Half-Length) x4 PCIe 2.0 카드로, 반으로 줄었지만 검토한 ioDrive2 Duo SLC와 디자인이 유사합니다. (디자인에 대한 자세한 내용은 듀오 리뷰.) 듀오와 달리 이 반복에서 NAND는 하나의 컨트롤러를 사용하는 단일 NAND 풀을 통해 연결됩니다. 컨트롤러는 Duo와 동일합니다. 40nm Xilinx Virtex-6 FPGA입니다.

ioDrive2는 1.2TB이며 PCIe 연결을 통해 4개 레인에서 작동합니다. ioDrive2는 24개의 64GB NAND 패키지로 분할되는 MLC NAND를 사용합니다. 이 그림에서 초과 프로비저닝 수준은 스톡 형식으로 22%입니다. ioDrive2 Duo와 마찬가지로 NAND는 Intel MLC NAND를 활용하는 특정 테스터 모델과 함께 제조업체에 구애받지 않습니다.

테스트 배경 및 유사 항목

Fusion-io ioDrive2 MLC는 40nm Xilinx Virtex-6 FPGA 컨트롤러와 PCIe 2.0 x4 인터페이스가 있는 Intel MLC NAND를 사용합니다.

이 리뷰에 대한 비교:

모든 SAS/SATA 기업용 SSD는 레노버 씽크서버 RD630. 이 새로운 Linux 기반 테스트 플랫폼에는 LSI 9207-8i HBA와 같은 최신 상호 연결 하드웨어와 최상의 플래시 성능을 위한 I/O 스케줄링 최적화가 포함되어 있습니다. 합성 벤치마크의 경우 Linux용 FIO 버전 2.0.10과 Windows용 버전 2.0.12.2를 사용합니다. Fusion-io ioDrive2는 호스트 측 리소스를 활용하므로 더 빠른 서버 클럭 속도로 더 높은 성능을 얻을 수 있습니다. 합성 테스트 환경에서는 클록 속도가 2.0GHz인 주류 서버 구성을 사용하지만 더 강력한 프로세서가 있는 서버 구성이 훨씬 더 뛰어난 성능을 낼 수 있습니다.

  • 2 x Intel Xeon E5-2620(2.0GHz, 15MB 캐시, 6코어)
  • 인텔 C602 칩셋
  • 메모리 – 16GB(2GB 8개) 1333Mhz DDR3 등록 RDIMM
  • Windows Server 2008 R2 SP1 64비트, Windows Server 2012 Standard, CentOS 6.3 64비트
  • LSI 9211-4i SAS/SATA 6.0Gb/s HBA(부팅 SSD용)
  • LSI 9207-8i SAS/SATA 6.0Gb/s HBA(SSD 또는 HDD 벤치마킹용)

애플리케이션 성능 분석

엔터프라이즈 시장에서는 제품이 종이에 표시되는 성능과 생산 환경에서 작동하는 방식 사이에 큰 차이가 있습니다. 우리는 스토리지를 더 큰 시스템의 구성 요소로 평가하는 것의 중요성을 이해하고 있으며, 가장 중요한 것은 주요 엔터프라이즈 애플리케이션과 상호 작용할 때 스토리지가 얼마나 반응이 좋은지 이해하고 있습니다. 이를 위해 독점 기술을 포함한 첫 번째 애플리케이션 테스트를 시작했습니다. MarkLogic NoSQL 데이터베이스 스토리지 벤치마크 그리고 SysBench를 통한 MySQL 성능

MarkLogic NoSQL 데이터베이스 환경에서 사용 가능한 용량이 200GB 이상인 650개의 SATA 또는 SAS SSD 그룹을 테스트합니다. 우리의 NoSQL 데이터베이스는 24개의 데이터베이스 노드 사이에 균등하게 나누어 작업할 수 있는 약 30GB의 여유 공간이 필요합니다. 테스트 환경에서는 SCST 호스트를 사용하고 데이터베이스 노드당 하나씩 할당된 JBOD에 각 개별 SSD를 제공합니다. 테스트는 36회 간격으로 반복되며 이 범주의 SSD에 대해 총 XNUMX-XNUMX시간이 필요합니다. MarkLogic 소프트웨어에 표시된 내부 대기 시간을 측정하여 총 평균 대기 시간과 각 SSD의 간격 대기 시간을 모두 기록합니다.

MarkLogic NoSQL 데이터베이스 벤치마크의 전체 평균 대기 시간 순위에서 Fusion-io ioDrive2 MLC는 910ms에 비해 응답 시간이 4.685ms로 Intel SSD 4.286보다 약간 뒤처졌습니다.

Fusion-io ioDrive2 MLC는 910-6ms 범위의 Intel SSD 50과 유사한 대기 시간을 제공했습니다. 그러나 ioDrive2는 대부분의 테스트에서 더 낮은 저널 쓰기 대기 시간을 유지했습니다.

Intel SSD 910은 최대 지연 시간이 2~6ms인 Fusion-io ioDrive50와 유사한 수치를 게시했습니다. 저장 쓰기와 병합 읽기 및 쓰기 수치는 비슷했지만 대부분의 테스트에서 저널 쓰기 점수가 더 높았습니다. 전반적으로 Intel SSD 910은 NoSQL 테스트에서 Fusion-io ioDrive2 MLC를 약간 앞질렀습니다.

다음 애플리케이션 테스트는 OLTP 활동의 성능을 측정하는 SysBench를 통한 Percona MySQL 데이터베이스 테스트로 구성됩니다. 이 테스트 구성에서는 Lenovo ThinkServer RD630 그룹을 사용하고 단일 SATA, SAS 또는 PCIe 드라이브에 데이터베이스 환경을 로드합니다. 이 테스트는 평균 TPS(Transactions Per Second), 평균 대기 시간 및 99~2개 스레드 범위에서 평균 32번째 백분위수 대기 시간을 측정합니다. Percona와 MariaDB는 데이터베이스의 최신 릴리스에서 Fusion-io 플래시 인식 애플리케이션 API를 사용하고 있지만 이 비교를 위해 "레거시" 블록 스토리지 모드에서 각 장치를 테스트합니다.

SysBench 테스트에서 Fusion-io ioDrive2 1.2TB는 LSI Nytro WarpDrive 400GB보다 앞섰으며 ioDrive2의 평균 TPS는 305스레드에서 약 2 TPS에서 2,354스레드에서 32 TPS로 확장되었습니다.

SysBench에서 Fusion-io ioDrive2 1.2TB의 평균 대기 시간은 6.55스레드에서 2ms에서 13.59스레드에서 32ms로 확장되었습니다.

SysBench 테스트에서 99번째 백분위수 대기 시간을 비교한 Fusion-io ioDrive2 1.2TB는 테스트 내내 더 나은 대기 시간으로 LSI Nytro WarpDrive를 다시 제치고 WarpDrive의 30과 비교하여 29.35ms에서 39.30ms 미만을 유지했습니다.

엔터프라이즈 종합 워크로드 분석

플래시 성능은 각 스토리지 디바이스의 사전 조정 단계에 따라 다릅니다. 가상 엔터프라이즈 스토리지 벤치마크 프로세스는 철저한 사전 조정 단계에서 드라이브가 수행되는 방식을 분석하는 것으로 시작됩니다. 비교 가능한 각 드라이브는 공급업체의 도구를 사용하여 안전하게 삭제되고 동일한 워크로드로 정상 상태로 사전 조정됩니다. 스레드당 16개의 대기 대기열이 있는 16개 스레드의 과도한 로드에서 장치를 테스트한 다음 정해진 간격으로 테스트합니다. 여러 스레드/대기열 깊이 프로필에서 사용량이 적거나 많을 때 성능을 보여줍니다.

사전 조건화 및 기본 정상 상태 테스트:

  • 처리량(읽기+쓰기 IOPS 집계)
  • 평균 대기 시간(읽기+쓰기 대기 시간을 함께 평균화)
  • 최대 대기 시간(최대 읽기 또는 쓰기 대기 시간)
  • 대기 시간 표준 편차(함께 평균화된 읽기+쓰기 표준 편차)

Enterprise Synthetic Workload Analysis에는 실제 작업을 기반으로 하는 두 가지 프로필이 포함되어 있습니다. 이러한 프로파일은 기업 하드웨어에 일반적으로 사용되는 최대 4k 읽기 및 쓰기 속도 및 8k 70/30과 같이 널리 게시된 값뿐만 아니라 과거 벤치마크와 쉽게 비교할 수 있도록 개발되었습니다.

  • 4k
    • 100% 읽기 또는 100% 쓰기
    • 100% 만
  • 8k 70/30
    • 70% 읽기, 30% 쓰기
    • 100% 만

이 테스트에서는 세 가지 드라이브인 LSI Nytro WarpDrive, Intel SSD 910 및 Fusion-io ioDrive2를 Linux와 Windows에서 모두 비교했습니다. 또한 ioDrive2를 사용하여 고성능(HP) 테스트 모드를 위한 오버프로비저닝 기능을 활용했습니다.

첫 번째 테스트는 100T/4Q 부하로 16% 16k 임의 쓰기 성능을 측정합니다. 이 설정에서 Fusion-io ioDrive2 MLC HP의 버스트 특성은 Windows의 경우 253,000, Linux의 경우 293,000에서 테스트한 후 각각 동급 최고의 113,000 IOPS/118,000 IOPS로 거의 정상 상태로 평준화되었습니다. 폭발적인 HP 수치는 폭발적인 주식 수치와 유사했습니다. 정상 상태에서 Intel SSD 910은 기본 ioDrive2 Windows 및 Linux를 능가했습니다.

무거운 16T/16Q 로드에서 Fusion-io ioDrive2 HP는 버스트에서 0.87-1ms를 측정했고 정상 상태에 가까워지면서 오른쪽 약 2.16-2.24ms로 확장되었습니다. 재고 수는 버스트에서 비슷했지만 정상 상태에서 더 높았으며 Intel SSD 910에 의해 다시 약간 줄어들었습니다.

최대 대기 시간을 비교하면 Fusion-io ioDrive2 MLC는 Windows보다 Linux에서 훨씬 더 나은 최대 응답 시간을 보였습니다. 또한 Windows HP Max 대기 시간은 경쟁 제품보다 훨씬 뒤떨어졌습니다. 전반적으로 최고의 수치는 Intel SSD 910 Linux 및 ioDrive2 Linux HP에서 각각 26ms 및 15ms에서 나왔습니다.

4k 랜덤 쓰기 워크로드의 대기 시간 일관성을 더 면밀히 살펴보면 Fusion-io ioDrive2 Linux 및 Windows HP는 모두 Linux의 경우 910ms, Windows의 경우 2.38ms로 최고 점수를 기록한 Intel SSD 2.72 바로 뒤에 위치했습니다.

6시간의 사전 조정 후 Fusion-io ioDrive2 Windows 기본 및 HP는 HP의 경우 4 IOPS, 기본의 경우 252,000 IOPS의 쓰기 속도로 놀라운 111,597 IOPS에서 61,847k 임의 읽기 성능을 제공했습니다. Intel SSD 910은 더 큰 쓰기 처리량을 제공했습니다.

16T/16Q의 워크로드에서 Fusion-io ioDrive2 Windows(HP 및 주식)는 ​​4ms로 그룹을 이끄는 평균 1.013k 임의 읽기 대기 시간을 제공했으며 최고의 쓰기 대기 시간 성능은 쓰기가 있는 Intel SSD 910 Windows에 돌아갔습니다. 대기 시간은 2.097ms입니다.

Fusion-io ioDrive2 Windows 주식의 최대 대기 시간은 7.98ms로 읽기 활동에 가장 적합했지만 쓰기 활동 최대치는 1030.50ms로 그룹에서 가장 높았습니다.

지연 시간 일관성을 비교하면 Fusion-io ioDrive2 MLC는 4k 무작위 읽기 및 쓰기 일관성에서 그룹의 뒤쪽 근처에 수치를 게시했습니다.

다음 워크로드에서는 읽기/쓰기 혼합 비율이 8/70인 30k 프로필을 살펴봅니다. 이 설정에서 다양한 구성의 Fusion-io ioDrive2는 210,000+ IOPS 버스트에서 시작하여 스톡의 경우 약 70,000 IOPS, HP의 경우 88,000 IOPS 속도로 느려졌습니다. 버스트 성능은 경쟁 제품보다 훨씬 앞서 있었고 정상 상태 속도는 Nytro WarpDrive Windows를 제외하고 경쟁 드라이브의 버스트 속도에 근접했습니다.

모든 모드에서 Fusion-io ioDrive2의 평균 대기 시간은 1.2K 8/70 사전 조건 테스트 시작 시 30ms로 측정되었으며 정상 상태에 가까워지면서 HP의 경우 약 2.88ms, 스톡의 경우 3.65ms로 증가했습니다. 그 수치는 경쟁의 점수를 능가했습니다.

8k 70/30 테스트 기간 동안 Fusion-io ioDrive2 Linux HP는 대부분의 테스트에서 최대 대기 시간이 25ms 미만으로 측정되는 최고의 피크 응답 시간을 제공했습니다. 다시 말하지만, ioDrive2 Windows HP는 높은 최대 대기 시간을 생성했습니다.

Fusion-io ioDrive2 HP Linux 및 Windows 대기 시간 일관성은 각각 2.5ms 및 2.55ms에서 종료하여 전반적으로 가장 낮은 점수를 달성했습니다.

16% 16k 쓰기 테스트에서 수행한 고정된 100개 스레드, 4개 대기열 최대 워크로드와 비교할 때 혼합 워크로드 프로필은 광범위한 스레드/대기열 조합에서 성능을 확장합니다. 이 테스트에서는 2개의 스레드와 2개의 대기열에서 최대 16개의 스레드와 16개의 대기열까지 워크로드 강도를 확장합니다. 확장된 8k 70/30 테스트에서 Linux 및 Windows용 Fusion-io ioDrive2 HP는 그룹 88,000위인 약 2 IOPS로 정점을 찍었습니다. ioDriveXNUMX 스톡도 훨씬 적은 차이로 경쟁 제품을 이겼지만 말입니다.

Fusion-io ioDrive2 HP Linux 및 Windows의 평균 대기 시간은 동급 최고였으며 기본 버전도 경쟁 제품을 능가했습니다.

다양한 로드 8k 70/30 테스트 기간 동안 최대 대기 시간은 모든 환경에서 Fusion-io ioDrive2와의 경쟁 제품보다 상당히 높게 유지되었습니다. 피크는 HP의 경우 110ms 미만에 머물렀고 스톡의 경우 거의 300ms 범위였습니다.

테스트 환경에서 Fusion-io ioDrive2 HP의 표준 편차는 동급 최고였으며 ioDrive2 주식은 Intel SSD 910과 거의 같은 수준에서 정점을 찍었습니다.

 

결론

Fusion-io ioDrive2 MLC 애플리케이션 가속기는 FHHL이 최대 1.2TB를 제공하는 HHHL 폼 팩터에서 최대 3TB의 용량으로 실행됩니다. 우리가 최근에 검토한 형제이지만 ioDrive2 플래그십 듀오 SLC, SLC NAND 및 듀얼 컨트롤러 구성으로 가장 까다로운 애플리케이션을 처리하도록 설계되었으며, MLC가 있는 ioDrive2 단일 드라이브는 여전히 초저지연 및 높은 처리량이 필요한 고급 워크로드를 처리할 수 있습니다. MLC NAND는 또한 Fusion-io가 SLC 버전보다 더 낮은 가격으로 용량이 증가한 이 모델을 제공할 수 있음을 의미합니다.

얼마 전에 이미 ioDrive2 Duo SLC를 테스트했기 때문에 ioDrive2 싱글의 성능에 대한 좋은 기준점이 있었습니다. 그러나 이번에는 MarkLogic 및 SysBench MySQL 실제 테스트 환경을 위해 레거시 합성 벤치마크 중 일부를 단계적으로 폐지함에 따라 테스트 환경이 업데이트되었습니다. 우리는 이러한 테스트로 시작했고 ioDrive2는 잘 수행되었습니다. ioDrive2의 전체 평균 대기 시간은 MarkLogic 테스트에서 Intel SSD 910에 의해 약간 줄어들었지만 성능은 경쟁력이 있었고 최대 저널 쓰기 대기 시간은 Intel SSD 910보다 상당히 낮았습니다. SysBench 테스트에서 ioDrive2는 LSI Nytro WarpDrive와 맞붙어 대기 시간을 줄이면서 수백 TPS를 더 생성했습니다.

그런 다음 ioDrive2를 고성능(HP) 모드에 대한 ioDrive910의 오버 프로비저닝을 활용하여 Intel SSD 2 및 LSI Nytro WarpDrive와 비교하고 Linux 및 Windows에서 모든 드라이브를 테스트했습니다. 일반적인 처리량 수치에 관해서는 ioDrive2가 지속적으로 최고의 성능을 보였습니다. HP 모드는 250,000k 무작위 테스트에서 최대 4 이상으로 최대의 전체 처리량을 제공했습니다. ioDrive2는 Windows에서 최대 대기 시간을 제외하고는 대기 시간에서도 잘 테스트되었으며, 테스트할 때 ioDrive2 Duo SLC에서도 관찰되었습니다. 그 범주를 제외하고 ioDrive2는 매우 잘 수행되었습니다.

장점

  • 우수한 관리 소프트웨어 패키지
  • 엔트리 엔터프라이즈 모델에 비해 4k 및 8k 워크로드에서 최고의 처리량 제공
  • Sysbench 및 MarkLogic 실제 테스트의 대기 시간 및 처리량은 경쟁 제품보다 동등하거나 더 우수합니다.

단점

  • Windows 및 Linux 모두에서 최대 대기 시간 문제

히프 라인

Fusion-io ioDrive2 MLC는 업계 최고의 소프트웨어 관리 제품군 위에 동급 최고의 인상적인 처리량 수치를 제공함으로써 가장 집약적인 워크로드를 처리하도록 시스템을 가속화할 수 있습니다.

Fusion-io ioDrive2 제품 페이지

이 검토에 대해 토론