홈페이지 Enterprise Fusion-io ioDrive Duo Enterprise PCIe 검토

Fusion-io ioDrive Duo Enterprise PCIe 검토

by 케빈 오브라이언

테스트 프로토콜 및 엔터프라이즈 랩 개발 모두에서 StorageReview의 지속적인 발전의 일환으로 우리는 이전에 검토한 640세대 플래시 드라이브를 새롭게 검토하고 있습니다. 초기 PCIe 플래시 스토리지 장치에 대한 이러한 재검토는 XNUMX세대 PCIe 스토리지 카드 및 애플리케이션 가속기에 대한 새로운 검토를 시작하기 전에 기업 검토 프로세스를 개선하고 재조정할 수 있는 기회를 제공했습니다. 엔터프라이즈 스토리지 구매자와 더 관련성이 높은 테스트 프로토콜을 연마하면서 업계 리더가 제공한 XNUMX세대 및 XNUMX세대 카드를 사용하여 지난 몇 개월 동안 수정된 테스트 방법론을 검토해 왔습니다. 이 리뷰에서는 XNUMXGB Fusion ioDrive Duo로 다시 작업합니다. 이번에는 Windows와 Linux 모두에서 보다 정교한 테스트를 사용합니다.


테스트 프로토콜 및 엔터프라이즈 랩 개발 모두에서 StorageReview의 지속적인 발전의 일환으로 우리는 이전에 검토한 640세대 플래시 드라이브를 새롭게 검토하고 있습니다. 초기 PCIe 플래시 스토리지 장치에 대한 이러한 재검토는 XNUMX세대 PCIe 스토리지 카드 및 애플리케이션 가속기에 대한 새로운 검토를 시작하기 전에 기업 검토 프로세스를 개선하고 재조정할 수 있는 기회를 제공했습니다. 엔터프라이즈 스토리지 구매자와 더 관련성이 높은 테스트 프로토콜을 연마하면서 업계 리더가 제공한 XNUMX세대 및 XNUMX세대 카드를 사용하여 지난 몇 개월 동안 수정된 테스트 방법론을 검토해 왔습니다. 이 리뷰에서는 XNUMXGB Fusion ioDrive Duo로 다시 작업합니다. 이번에는 Windows와 Linux 모두에서 보다 정교한 테스트를 사용합니다.

StorageReview 팀이 엔터프라이즈 스토리지를 평가하는 방법은 업계 리더와 주요 파트너의 지속적인 의견 덕분에 계속 진화하고 있습니다. 이 공동 작업 방식은 이와 같은 검토 결과를 훨씬 더 상세하고 전반적으로 업계와 관련이 있게 만듭니다. 제조업체와 긴밀히 협력하여 새로운 테스트 아이디어를 검토에 지속적으로 통합하고 간과할 수 있는 항목을 다룰 수 있습니다. 아래 독자는 ioDrive Duo를 거의 미세한 부분까지 분석하는 전용 차트를 70개 이상 찾을 수 있습니다. 여기에는 개발 중인 새로운 일련의 애플리케이션 수준 벤치마크도 포함되지 않습니다. 일부에게는 세부 사항이 부담스러워 보일 수 있지만 스토리지 문제를 해결하기 위해 특정 키트가 필요한 다른 사람들에게는 이러한 세부 사항이 중요합니다. 전체 리뷰는 독자의 편의를 위해 항상 한 페이지 아래에 게시됩니다.

ioDrive의 성능에 대해 알아보기 전에 Fusion-io의 플래시 스토리지와 일반적인 SSD 간의 몇 가지 주요 차이점을 강조하는 것이 중요합니다. SSD의 플래시(Solid State Drive라는 이름이 올바르게 의미함)는 SATA 또는 SAS 인터페이스 뒤에 숨겨져 호환성상의 이유로 NAND를 난독화합니다. ioDrive 제품을 사용하면 사용자는 본질적으로 SSD보다 대기 시간이 훨씬 짧고 전반적인 성능이 더 우수한 플래시 메모리 스토리지 계층에 액세스할 수 있습니다. 그 이유는 아키텍처와 ioDrive가 호스트 시스템과 인터페이스하는 방식에 있습니다.

엔터프라이즈 PCIe SSD에는 종종 단일 카드에 여러 장치를 함께 RAID에 대한 여러 블록 장치 컨트롤러와 추가 칩이 있는 경우 Fusion-io는 삶에 대해 다른 접근 방식을 취합니다. 프로세서와 같은 NAND 플래시가 포함된 Fusion ioMemory 인터페이스는 시스템 메모리와 상호 작용합니다. 이는 PCIe를 통해 직접 통신하는 Fusion-io의 NAND 컨트롤러(FPGA)와 Fusion-io의 드라이버 또는 가상 스토리지 계층 소프트웨어의 조합을 사용하여 수행됩니다. 장치를 전통적인 블록 장치로 변환하는 호스트 시스템. Fusion-io의 VSL(Virtual Storage Layer)을 통해 소프트웨어는 호환성을 위해 블록 장치를 에뮬레이트하지만 최근 Fusion-io는 다음을 허용하는 SDK를 출시했습니다. 일부 애플리케이션 내 기본 액세스(커널 블록 계층 우회).

IoMemory는 또한 VSL 드라이버가 작동하기 위해 시스템 리소스를 소비하고 호스트 CPU를 활용하는 동시에 시스템 메모리에 풋프린트를 생성한다는 점에서 전통적이지 않습니다. Fusion-io에 따르면 이 아키텍처는 RAM의 아키텍처와 매우 유사하므로 ioMemory라는 이름이 붙었습니다. 이점에는 더 빠른 파일 위치 조회가 포함되며 ioMemory가 CPU에 도달하더라도 사용량이 매우 효율적이며 실제로 트랜잭션 대기 시간을 줄여 성능을 향상시킵니다. 관리 측면에서 또 다른 핵심 아키텍처 이점은 Fusion-io가 FPGA를 NAND 컨트롤러로 사용하기 때문에 버그 수정 및 성능 향상을 해결할 수 있는 매우 낮은 수준의 소프트웨어/펌웨어 업데이트가 가능하다는 것입니다. 이는 새로운 컨트롤러 제작을 통해서만 기본적인 변경이 가능한 표준 SSD 컨트롤러와 대조됩니다.

Fusion-io ioDrive 듀오 사양

  • 단일 레벨 셀(SLC)
    • 320GB ioDrive 듀오 SLC
      • 1.5GB/s 읽기 대역폭(64kB)
      • 1.5GB/s 쓰기 대역폭(64kB)
      • 261,000 읽기 IOPS(512바이트)
      • 262,000 쓰기 IOPS(512바이트)
      • 액세스 대기 시간 0.026ms(512바이트)
    • 640GB ioDrive 듀오 SLC
      • 1.5GB/s 읽기 대역폭(64kB)
      • 1.5GB/s 쓰기 대역폭(64kB)
      • 252,000 읽기 IOPS(512바이트)
      • 236,000 쓰기 IOPS(512바이트)
      • 액세스 대기 시간 0.026ms(512바이트)
  • 다단계 셀(MLC)
    • 640GB ioDrive 듀오 MLC
      • 1.5GB/s 읽기 대역폭(64kB)
      • 1.0GB/s 쓰기 대역폭(64kB)
      • 196,000 읽기 IOPS(512바이트)
      • 285,000 쓰기 IOPS(512바이트)
      • 액세스 대기 시간 0.029ms(512바이트)
    • 1.28TB ioDrive 듀오 MLC
      • 1.5GB/s 읽기 대역폭(64kB)
      • 1.1GB/s 쓰기 대역폭(64kB)
      • 185,000 읽기 IOPS(512바이트)
      • 278,000 쓰기 IOPS(512바이트)
      • 액세스 대기 시간 0.03ms(512바이트)
  • PCI 익스프레스 2.0 x8
  • OS 호환성
    • Microsoft: Windows 64비트 Microsoft XP/Vista/Win7/Server 2003/2008/2008 R2
    • 리눅스: RHEL 5/6; SLES 10/11; 오엘 5/6; 센트OS 5/6; 데비안 스퀴즈; 페도라 15/16;오픈수세 12; 우분투 10/11
    • 유닉스: 솔라리스 10 U8/U9/U10 x64; 오픈솔라리스 2009.06 x64; OSX 10.6/10.7, HP-UX* 11i
    • 하이퍼바이저: VMware ESX 4.0/4.1/ESXi 4.1/5.0, Windows 2008 R2(Hyper-V 포함), Hyper-V 서버 2008 R2
  • 작동 온도: 0-55C
  • XNUMX년 보증 또는 최대 내구성 사용
  • VSL 버전 검토: 3.1.1

설계 및 구축

Fusion ioDrive Duo는 메인 인터페이스 보드에 연결된 두 개의 개별 ioDimm이 있는 전체 높이 절반 길이 x8 PCI-Express 카드입니다. PCI-Express 카드는 기계적으로 x8 장치이지만 Gen1 플랫폼에서는 대역폭에 8레인을 사용하는 반면 PCIe Gen2 시스템에서는 4레인만 필요합니다. 각 카드는 PCIe 연결의 320개 레인을 사용하는 고유한 4GB ioMemory 장치를 나타냅니다. 카드 뒷면의 견고한 지지 브래킷을 포함하여 디자인이 매우 콤팩트하고 깔끔합니다. 이렇게 하면 열악한 작동 조건에서도 카드가 계속 작동할 수 있도록 카드를 강화하는 데 도움이 되며 멋지게 완성된 모양을 제공합니다.

MLC 기반 ioDrive Duo의 심장(또는 심장)은 두 개의 ioDimm입니다. 각각의 동일한 ioDimm은 자체 Xilinx Virtex-5 FPGA 및 400GB MLC NAND 풀이 있는 하나의 ioDrive를 나타냅니다. 우리가 검토한 ioDrive Duo는 Samsung NAND를 사용했지만 Fusion-io는 제조업체에 구애받지 않습니다. NAND는 장치당 25개의 이중 스택 16GB 칩으로 분할되며 스톡 형식으로 320GB를 사용할 수 있습니다. 이 비율은 스톡 오버 프로비저닝 수준을 20%로 설정하며, 이는 대부분의 엔터프라이즈 플래시 장치와 거의 같습니다. Fusion-io는 또한 오버 프로비저닝 수준을 수정하여 백그라운드 활동에 대한 사용자 용량을 교환하여 사용자 지정 및 성능 향상을 허용하는 기능을 제공합니다.

기능적 관점에서 볼 때 ioDrive에는 모두 전원이 켜질 때부터 꺼질 때까지 드라이브의 상태를 보여주는 표시 LED가 포함되어 있습니다. 활성화된 LED에 따라 카드의 다음 모드가 표시됩니다.

  • 전원 꺼짐
  • 전원 켜기(드라이버가 로드되지 않음, 장치가 연결되지 않음)
  • 전원 켜기(드라이버 로드됨, 장치가 연결되지 않음)
  • 활성 쓰기 활동
  • 활성 읽기 활동
  • 위치 비콘

보다 전통적인 접근 방식을 위해 ioDrive Duo에는 표준 HDD 활동 LED 연결도 포함되어 있습니다. 이 연결을 통해 컴퓨터 케이스의 전면 장착 HDD 작동 표시등을 ioDrive Duo에 연결할 수 있습니다.

ioDrive Duo는 5개의 방열판을 통합하여 수동적으로 냉각됩니다. 강제 냉각 서버 환경에서 작동하도록 설계되었습니다. 이 방열판은 각 ioDimm에서 하나의 Xilinx Virtex-300 FPGA와 단일 PCIe 슬롯으로 두 장치를 인터페이스하는 PCIe 스위치를 냉각시킵니다. Fusion-io는 주변 온도가 55C 미만인 경우 78LFM의 권장 공기 흐름을 나열합니다. 손상을 방지하기 위해 ioDrive는 내부 온도가 85C에 도달하고 XNUMXC에서 전원이 꺼지면 성능을 조절하도록 설계되었습니다. 워크스테이션은 일반적으로 재고 구성에서 PCIe 추가 기능에 대한 냉각 지원을 제공하지 않기 때문에 이러한 카드는 워크스테이션 환경용으로 설계되지 않았습니다. 이러한 시장에 대응하기 위해 Fusion-io는 최근 ioFX를 발표했습니다., 기본적으로 활성 냉각 기능이 있는 단일 ioDimm입니다.

Fusion "Duo" ioMemory 장치와 많은 경쟁 PCIe 솔루션 간의 또 다른 차이점은 완전한 성능을 유지하기 위해 x8 PCIe 2.0 연결에서 일반적으로 지원되는 것보다 더 많은 전력이 필요하다는 것입니다. PCIe 2.0 전기 사양은 x25 연결에서 8w를 끌어올 수 있으며, 과중한 쓰기 조건에서는 ioDrive Duo와 같은 트윈 ioDimm 모델이 초과할 수 있습니다. 추가 전원을 공급하지 않고도 사양을 준수하지만 전체 쓰기 성능은 제한됩니다. 이 문제를 해결하기 위해 Fusion-io는 두 가지 솔루션을 제공합니다. 하나는 외부 전원 어댑터가 필요하고 다른 하나는 카드를 지원하는 시스템에서 25와트 이상을 소모하도록 허용하는 것입니다. 설치에 가장 적합한 옵션을 결정하기 위해 Fusion-io에는 최상의 사례 설정 지침을 제공하는 대부분의 계층 XNUMX 서버에 대한 서버 구성 가이드가 있습니다.

사용자 데이터를 보호하기 위해 Fusion-io는 두 가지 주요 기능을 제공합니다. 첫째, Fusion-io 제품에는 예기치 않은 정전 시 데이터 무결성을 보장하는 전원 차단 기능이 포함되어 있습니다. NAND 다이 고장과 같은 보다 드문 고장의 경우 XNUMX세대 Fusion-io 장치의 NAND 아키텍처의 장점은 플래시백 중복성으로 전체 장치를 중단하지 않고 단일 NAND 고장을 허용합니다. XNUMX세대 모델은 여러 NAND 오류를 지원하는 적응형 플래시백을 제공합니다.

소프트웨어

Fusion-io는 잘 다듬어진 직관적인 소프트웨어의 광범위한 포트폴리오를 제공하는 데 앞장서고 있으며, 소프트웨어를 제공하는 스토리지 공급업체는 거의 없습니다. 기본적으로 Fusion-io는 GUI와 콘솔 응용 프로그램을 통해 모든 주요 운영 체제에서 ioMemory 장치를 완벽하게 관리할 수 있는 유틸리티를 제공합니다. 관리 기능은 오버 프로비저닝을 쉽게 관리하여 사용자 용량을 거래하여 성능을 얻는 방법, 드라이브 통계 모니터링, 카드가 초 단위로 수행하는 작업에 대한 라이브 스트리밍 데이터까지 모든 것을 포괄합니다. 다른 어떤 PCIe 스토리지 제조업체도 이 수준의 직관적인 사용 편의성은 말할 것도 없고 이 수준의 드라이브 관리 지원을 제공하는 데 근접하지 않습니다.


ioSphere 로우 레벨 포맷(고성능 모드로 오버 프로비저닝)

ioSphere 소프트웨어의 가장 흥미로운 기능 중 하나는 ioMemory 장치에 도달하는 활동 유형을 볼 수 있는 기능입니다. 이 정보의 범위는 대역폭 및 I/O 활동에서 현재 장치 온도, 남은 장치 내구성 또는 VSL 드라이버에서 사용하는 시스템 리소스에 이르기까지 다양합니다.


ioSphere 라이브 성능 스트리밍

더 자세한 정보를 보려면 현재 선택한 ioMemory 장치의 전체 사양 인쇄물을 제공하는 페이지도 있습니다. 이것은 장치에서 전송되거나 장치에서 전송되는 정보의 총량에서 PCIe 버스를 통한 현재 전력 소모에 이르기까지 무엇이든 될 수 있습니다.


ioShpere 평생 사용 정보

정보를 얻거나 ioDrive Duo를 설정하기 위해 GUI 또는 콘솔 인터페이스를 선호하든 상관없이 Fusion-io는 드라이브 상태 폴링에서 드라이브 포맷에 이르기까지 모든 것을 처리할 수 있는 전체 콘솔 기반 유틸리티 라인도 제공합니다. 이러한 모든 유틸리티는 여러 운영 체제에서 작동하도록 설정되어 있으므로 어떤 플랫폼을 사용하든 상관 없습니다. Fusion-io 제품을 관리하기 위해 예비 OS를 로드할 필요가 없습니다.


Fusion-io 명령줄 상태(기본)

테스트 배경 및 유사 항목

엔터프라이즈 하드웨어를 테스트할 때 환경은 이를 평가하는 데 사용되는 테스트 프로세스만큼 중요합니다. StorageReview에서는 우리가 테스트하는 장치가 궁극적으로 향하게 될 많은 데이터 센터에서 발견되는 것과 동일한 하드웨어 및 인프라를 제공합니다. 여기에는 엔터프라이즈 서버는 물론 네트워킹, 랙 공간, 전력 조절/모니터링, 장치 성능을 제대로 평가하기 위한 동급 하드웨어와 같은 적절한 인프라 장비가 포함됩니다. 우리의 리뷰는 우리가 테스트하는 장비 제조업체에 의해 지불되거나 통제되지 않습니다. 우리 연구실에 있는 제품에서 우리의 재량에 따라 관련 비교 대상을 선택했습니다.

StorageReview 엔터프라이즈 테스트 플랫폼:

레노버 씽크서버 RD240

  • 2 x Intel Xeon X5650(2.66GHz, 12MB 캐시)
  • Windows Server 2008 Standard Edition R2 SP1 64비트 및 CentOS 6.2 64비트
  • 인텔 5500+ ICH10R 칩셋
  • 메모리 – 8GB(2GB 4개) 1333Mhz DDR3 등록 RDIMM

640GB Fusion-io ioDrive 듀오

  • 출시: 1년 2009월
  • 낸드 유형: MLC
  • 컨트롤러: 2 x 독점
  • 장치 가시성: OS에 따라 JBOD, 소프트웨어 RAID
  • Fusion-io VSL 윈도우: 3.1.1
  • 퓨전-io VSL 리눅스 3.1.1

300GB LSI 워프드라이브 SLP-300

  • 출시: 1년 2010월
  • 낸드 유형: SLC
  • 컨트롤러: 6 x LSI SandForce SF-1500 ~ LSI SAS2008 PCIe-SAS 브리지
  • 장치 가시성: 고정 하드웨어 RAID0
  • LSI 윈도우: 2.10.43.00
  • LSI Linus: 기본 CentOS 6.2 드라이버

1.6TB OCZ Z 드라이브 R4

  • 출시: 2년 2011월
  • 낸드 유형: MLC
  • 컨트롤러: 맞춤형 OCZ VCA PCIe-SAS 브리지를 통한 8 x LSI SandForce SF-2200
  • 장치 가시성: 고정 하드웨어 RAID0
  • OCZ 윈도우 드라이버: 1.3.6.17083
  • OCZ 리눅스 드라이버: 1.0.0.1480

표준 합성 벤치마크

이 검토의 표준 합성 IOMeter 테스트 부분을 두 부분으로 나누었습니다. 첫 번째는 작업자당 4개의 대기열 깊이에서 수행되는 표준 낮은 대기열 깊이 테스트입니다(총 4명의 작업자가 XNUMX명의 관리자에 분산됨). 초기 테스트는 단일 사용자 환경에 더 가깝지만 후반부의 더 높은 대기열 깊이 범위는 카드가 I/O 요청이 쌓인 서버에서 볼 수 있는 것과 비슷합니다.

첫 번째 테스트는 지속적인 버스트 조건에서 직선 순차 읽기 및 쓰기 속도를 살펴봅니다. Fusion-io는 1.5GB MLC 기반 ioDrive Duo에서 1.0GB/s 읽기 속도와 640GB/s 쓰기 속도를 나열합니다.

1,584MB/s 읽기 및 1,045MB/s 쓰기의 순차 전송 성능을 측정했습니다.

다음으로 IOMeter에서 2MB를 전송하는 대형 블록 임의 전송을 살펴봅니다.

2MB 랜덤 전송으로 ioDrive Duo는 1,589MB/s의 읽기 속도와 1046MB/s의 쓰기 속도를 유지했습니다.

다음 테스트에서는 대기열 깊이가 각각 4인 총 1명의 작업자로 낮은 대기열 깊이의 무작위 XNUMXK 전송 속도를 살펴봅니다.

낮은 대기열 깊이에서 Fusion ioDrive Duo는 189MB/s 읽기 및 366MB/s 쓰기 또는 48,403 IOPS 읽기 및 93,740 IOPS 쓰기 속도로 최고의 성능을 제공했습니다.

성능과 대기 시간이 함께 진행됨에 따라 낮은 대기열 깊이 4K 무작위 전송 테스트 동안 평균 및 최대 대기 시간을 살펴보았습니다. Fusion ioDrive Duo는 0.0422ms의 평균 응답 시간과 2.08ms의 피크 응답을 측정했습니다.

합성 벤치마크의 다음 절반은 초기 대기열 깊이 수준에서 작업자당 최대 64(유효 QD=256) 또는 128(유효 QD=512)까지 성능을 다루는 램프 테스트입니다. 이 섹션에는 서버 프로필 테스트도 포함되어 있습니다. 처음부터 까다로운 혼합 서버 부하에서 엔터프라이즈 제품이 얼마나 잘 작동하는지 보여주기 위해 설계되었습니다.

ioDrive Duo의 임의 4K 읽기 성능을 살펴보면 큐 깊이 4과 1에서 LSI WarpDrive와 OCZ Z-Drive R2 모두의 속도를 거의 두 배로 유지했으며, 리드는 큐 깊이 4에서 그 전에 미끄러졌습니다. 두 경쟁 모델에 의해 압도당했습니다. 이 테스트에서 성능은 대기열 깊이 140,000 이상에서 64 IOPS 이상의 속도를 유지했지만 대기열 깊이 120,000에서 8 IOPS 읽기로 최고를 기록했습니다.

램핑 4K 임의 쓰기 테스트로 전환한 ioDrive Duo는 비슷한 성능 프로파일을 보여 더 낮은 대기열 깊이에서 다른 경쟁 모델을 능가했습니다. 이 테스트에서 ioDrive Duo의 성능은 큐 깊이 224,000에서 4 IOPS 쓰기 속도로 정점을 찍고 큐 깊이 201,000에서 210,000 사이에서 8에서 64 IOPS 사이에서 평준화되었습니다.

표준 합성 벤치마크의 마지막 그룹은 IOMeter의 서버 프로필을 사용하여 확장된 성능을 살펴봅니다. 이 테스트는 낮은 대기열 깊이에서 작업자당 최대 128까지 성능을 측정합니다(유효 QD=512). 이 섹션은 버스트 조건에서 다양한 까다로운 혼합 워크로드에서 엔터프라이즈 제품이 얼마나 잘 작동하는지 보여주기 위해 고안되었습니다. 기업 중심의 혼합 워크로드에서 ioDrive Duo는 파일 서버 테스트를 제외하고 큐 깊이 1과 2에서 무리를 이끌고 가장 높은 큐 깊이에서 다른 드라이브에 뒤처졌습니다.

엔터프라이즈 실제 벤치마크

당사의 엔터프라이즈 추적은 Microsoft Exchange 메일 서버 환경을 다룹니다. 며칠 동안 StorageReview 메일 서버의 활동을 캡처했습니다. 이 서버 하드웨어는 Dell Perc 2970/I 통합 컨트롤러의 RAID2003에서 2개의 73GB 10k SAS 하드 드라이브에서 작동하는 Windows Server 5 R5 환경을 실행하는 Dell PowerEdge 95으로 구성됩니다. 추적은 쓰기 트래픽이 5%인 강력한 읽기 로드가 XNUMX%인 많은 작은 전송 요청으로 구성됩니다.

일부 PCIe 장치는 최대 성능에 도달하기 위해 더 높은 부하가 필요하므로 트레이스 재생을 위해 Light 및 Heavy 프로파일을 모두 포함합니다. 여기서 우리는 약한 프로필에서 효과적인 대기열 깊이를 8로 제한하고 Heavy 프로필에서 48로 늘립니다.

더 가벼운 활동 조건을 나타내는 8로 제한된 유효 대기열 깊이로 ioDrive Duo는 평균 969MB/s의 속도로 메일 서버 추적 재생 테스트에서 가장 높은 전송 속도를 제공했습니다. 이는 동일한 조건에서 LSI WarpDrive의 평균 508MB/s 또는 OCZ Z-Drive R625의 4MB/s와 비교됩니다. 허용된 대기열 깊이를 48로 확장한 Z-Drive R4는 평균 1,327MB/s의 평균 속도로 1,227위를 차지했으며, ioDrive Duo는 300MB/s의 속도로 그 다음으로, WarpDrive SLP-830은 그 뒤를 이었습니다. XNUMXMB/s의 속도로.

전송 속도를 높이기 위해 대기열 깊이를 늘리는 것의 한 가지 단점은 처리되지 않은 I/O가 증가함에 따라 응답 시간에 영향을 미칠 수 있다는 것입니다. 가벼운 부하에서 ioDrive Duo는 969ms의 응답 시간으로 0.06MB/s의 전송 속도를 유지했습니다. Z-Drive R4가 1,327MB/s의 전송 속도로 이를 능가하기 위해서는 응답 시간이 3.5배 증가한 0.21ms인 반면 WarpDrive는 0.45MB/s의 전송 속도에 대해 평균 응답 시간이 830ms였습니다.

엔터프라이즈 합성 워크로드 분석(스톡 설정)

PCIe 스토리지 솔루션을 보는 방식은 기존의 버스트 또는 정상 상태 성능을 보는 것보다 더 깊습니다. 오랜 기간 동안의 평균 성능을 보면 장치가 전체 기간 동안 어떻게 수행되었는지에 대한 세부 정보를 간과하게 됩니다. 플래시 성능은 시간이 지남에 따라 크게 달라지기 때문에 새로운 벤치마킹 프로세스는 각 장치의 전체 사전 조정 단계에서 총 처리량, 평균 대기 시간, 피크 대기 시간 및 표준 편차를 포함한 영역의 성능을 분석합니다. 고급 엔터프라이즈 제품의 경우 대기 시간이 처리량보다 더 중요한 경우가 많습니다. 이러한 이유로 우리는 우리가 우리를 통해 넣은 각 장치의 전체 성능 특성을 보여주기 위해 많은 시간을 할애합니다. 엔터프라이즈 테스트 랩.

또한 성능 비교를 추가하여 Windows 및 Linux 운영 체제 모두에서 서로 다른 드라이버 세트에서 각 장치가 어떻게 작동하는지 보여줍니다. Windows의 경우 최초 검토 시점의 최신 드라이버를 사용하며 각 장치는 64비트 Windows Server 2008 R2 환경에서 테스트됩니다. Linux의 경우 각 Enterprise PCIe Application Accelerator가 지원하는 64비트 CentOS 6.2 환경을 사용합니다. 이 테스트의 주요 목표는 OS 성능이 어떻게 다른지 보여주는 것입니다. 제품 시트에 호환되는 운영 체제가 있다고 해서 항상 성능이 동일한 것은 아니기 때문입니다.

테스트된 모든 장치는 처음부터 끝까지 동일한 테스트 정책을 따릅니다. 현재 각 개별 워크로드에 대해 장치는 공급업체에서 제공하는 도구를 사용하여 안전하게 삭제되며, 스레드당 16개의 대기 대기열이 있는 16개 스레드의 과부하 상태에서 장치를 테스트할 동일한 작업 부하로 정상 상태로 사전 조정됩니다. 그런 다음 여러 스레드/대기열 깊이 프로필에서 설정된 간격으로 테스트하여 사용량이 적은 경우와 사용량이 많은 경우의 성능을 보여줍니다. 읽기 활동이 100%인 테스트의 경우 100% 쓰기로 전환되었지만 사전 조건은 동일한 워크로드로 이루어집니다.

사전 조건화 및 기본 정상 상태 테스트:

  • 처리량(읽기+쓰기 IOPS 집계)
  • 평균 대기 시간(읽기+쓰기 대기 시간을 함께 평균화)
  • 최대 대기 시간(최대 읽기 또는 쓰기 대기 시간)
  • 대기 시간 표준 편차(함께 평균화된 읽기+쓰기 표준 편차)

현재 Enterprise Synthetic Workload Analysis에는 실제 활동을 반영하려고 시도할 수 있는 4개의 공통 프로필이 포함되어 있습니다. 이러한 항목은 과거 벤치마크와 어느 정도 유사하고 최대 8K 읽기 및 쓰기 속도와 기업용 드라이브에 일반적으로 사용되는 70K 30/XNUMX과 같이 널리 게시된 값과 비교하기 위한 공통 기반으로 선택되었습니다. 또한 다양한 전송 크기를 제공하는 기존 파일 서버 및 웹 서버를 포함하여 두 가지 레거시 혼합 워크로드를 포함했습니다. 이 마지막 두 개는 해당 범주의 애플리케이션 벤치마크가 우리 사이트에 소개됨에 따라 단계적으로 제거되고 새로운 합성 워크로드로 대체됩니다.

  • 4K
    • 100% 읽기 또는 100% 쓰기
    • 100% 4K
  • 8K 70/30
    • 70% 읽기, 30% 쓰기
    • 100% 8K
  • 파일 서버
    • 80% 읽기, 20% 쓰기
    • 10% 512b, 5% 1k, 5% 2k, 60% 4k, 2% 8k, 4% 16k, 4% 32k, 10% 64k
  • 웹 서버
    • 100% 읽기
    • 22% 512b, 15% 1k, 8% 2k, 23% 4k, 15% 8k, 2% 16k, 6% 32k, 7% 64k, 1% 128k, 1% 512k

100시간 동안 4개 스레드와 16개 대기열의 과부하 상태에서 16% 6K 쓰기 활동을 살펴보면 Fusion ioDrive Duo가 Lenovo ThinkServer RD240에서 가장 높은 최고 전송 속도를 제공한다는 사실을 발견했습니다. 이것은 Windows Server 2008 R2 64비트와 CentOS 6.2 모두에 해당되며 Windows 성능보다 약간 앞서 있었습니다. 그 다음은 1.6TB OCZ Z-Drive R4였지만 Windows에서만 가능했습니다. CentOS 6.2용 OCZ 드라이버[1.0.0.1480]는 스레드 수에 관계없이 더 높은 대기열 깊이 요청에 제대로 응답하지 않으며 이 테스트 단계에서 대략 7,600 IOPS의 속도를 유지했습니다. 다음 제품은 LSI WarpDrive SLP-300으로, Windows와 Linux 모두에서 매우 유사한 처리량을 제공했습니다.

4K 100% 쓰기 사전 조건 테스트 기간 동안 평균 대기 시간을 살펴보면 가장 빠르고 느린 드라이브는 OCZ Z-Drive R4였습니다. 드라이버가 완전히 작동하는 Windows 환경에서 평균 대기 시간은 Fusion ioDrive Duo 또는 LSI WarpDrive보다 훨씬 빨랐습니다. 성능이 다소 떨어지는 Linux 환경에서는 이 범주의 다른 장치보다 기하급수적으로 높았습니다.

4K 100% 쓰기 전제 조건 테스트 동안 간격당 최대 대기 시간 출력을 자세히 살펴보면 대량 쓰기 환경에서 컨트롤러와 NAND가 얼마나 큰 영향을 미치는지 확인할 수 있습니다. MLC NAND가 포함된 Fusion ioDrive Duo는 최대 대기 시간 급증 측면에서 SLC 기반 LSI WarpDrive와 MLC 기반 OCZ Z-Drive R4 사이에 있었습니다. Windows와 Linux의 성능을 비교하면 Linux보다 Windows 환경에서 더 일관된 출력을 볼 수 있습니다. 스파이크가 작지는 않지만 훨씬 더 적습니다. Windows의 MLC 기반 Z-Drive R4는 낮은 IOPS 성능에서 많은 작업을 수행하는 것과는 거리가 멀지만 Linux 성능이 상당히 안정적으로 차트 척도를 훨씬 상회하는 큰 스파이크를 보였습니다. LSI WarpDrive는 여전히 1,000ms를 초과하는 한 번의 급증을 보였지만 훨씬 더 평평한 대기 시간 곡선으로 Windows에서 최고의 성능을 제공했습니다.

특정 스토리지 제품의 최대 대기 시간 성능을 고려할 때 자주 간과되는 영역은 수천 또는 수백만 개의 I/O 중 얼마나 많은 I/O가 높은 응답 값을 가졌는가입니다. 그렇기 때문에 최고 지연 시간을 모니터링하여 최고 피크를 확인하는 것뿐만 아니라 지연 시간의 변화를 보여주는 표준 편차를 확인하는 것이 중요합니다. 드라이브의 평균 대기 시간이 모든 값의 평균으로 다소 낮더라도 사용 중인 애플리케이션에 따라 허용되지 않는 것으로 간주될 수 있는 상당히 많은 양의 I/O가 여전히 있을 수 있습니다.

SLC NAND 구성에서 LSI WarpDrive는 매우 우수한 대기 시간 표준 편차를 유지했으며 주로 Windows 환경에서 그 강점을 보여줍니다. Fusion ioDrive Duo는 WarpDrive에서 발견된 패턴과 같이 상당히 일관성이 있었지만 표준 편차의 상위 범위에 도달했습니다. 드라이버 성능을 비교하면 이 특정 테스트에서 Linux에서 일관되게 더 빠릅니다. OCZ Z-Drive R4는 테스트 기간 동안 넓은 범위의 더 높은 대기 시간 출력을 가졌지만, 여전히 대기 시간이 다시 긴 시간이 있었지만 정상 상태에 도달하면 때때로 균등해지기 시작했습니다.

사전 조건 테스트가 완료된 후 기본 테스트 샘플링을 즉시 시작했습니다. 정상 상태에서 이 그룹에서 처리량이 가장 높은 PCIe 저장 장치는 Windows의 OCZ Z-Drive R4였습니다. 최대 229,811 IOPS 읽기와 56,978 IOPS 쓰기 속도를 측정했습니다. 그 다음은 Fusion ioDrive Duo로 140,230 IOPS 읽기 및 42,644 IOPS 쓰기를 측정했습니다. ioDrive Duo의 Windows 성능은 쓰기 성능이 약간 떨어졌지만 그 바로 아래였습니다. LSI WarpDrive SLP-300은 4 IOPS 읽기 및 120,502 IOPS 쓰기를 측정하여 Windows에서 가장 강력한 35,015K 쓰기 속도를 제공했습니다.

고부하 4K 읽기 및 4K 쓰기의 정상 상태 측정에서 Windows에서 동급 최고의 처리 속도를 갖춘 OCZ Z-Drive R4가 평균 대기 시간 4.49ms 읽기 및 1.11ms 쓰기로 전면에 나타났습니다. Fusion ioDrive Duo는 Linux에서 6.00ms, Windows에서 6.25ms의 읽기 속도와 두 OS 모두에서 1.82ms의 쓰기 속도로 그 다음으로 등장했습니다. 다음은 Windows에서 7.31ms 읽기 속도, Linux에서 7.32ms 읽기 속도, 쓰기 속도 Windows에서 2.12ms, Linux에서 2.71ms의 WarpDrive에서 나왔습니다.

정상 상태 테스트의 샘플링 시간 동안 최대 대기 시간을 살펴보면 SLC 기반 LSI WarpDrive가 Windows와 Linux 모두에서 가장 낮거나 가장 좋았고 Windows의 Fusion ioDrive Duo가 먼저 426.15ms 피크 읽기 및 170.09ms로 그 뒤를 이었습니다. 최대 쓰기, 그리고 Linux에서 1,208ms 최대 읽기 및 156.91ms 최대 쓰기. Windows에서 OCZ Z-Drive R4는 Windows에서 1,889ms 읽기 및 5,299ms 쓰기로 최고점을 기록했습니다.

정상 상태 4K 읽기 및 쓰기 테스트 기간 동안의 표준 편차를 살펴보면 읽기 및 쓰기 활동에 대한 4K 테스트에서 가장 일관된 PCIe 애플리케이션 가속기는 Windows의 LSI WarpDrive입니다. 일관된 4K 쓰기 성능으로 순위를 매긴 Windows의 OCZ Z-Drive R4, Linux의 WarpDrive, Linux의 ioDrive Duo, Windows의 ioDrive Duo 순입니다. 지속적으로 빠른 읽기 속도로 순위를 매긴 ioDrive Duo의 Windows 및 Linux 성능은 SLC 기반 WarpDrive, Linux의 WarpDrive, Windows의 Z-Drive R4에 이어 나타났습니다.

다음 사전 조건 테스트는 100K 테스트의 4% 쓰기 활동에 비해 보다 현실적인 읽기/쓰기 워크로드 분산으로 작동합니다. 여기에서는 70K 전송의 30% 읽기 및 8% 쓰기 혼합이 있습니다. 8시간 동안 70개 스레드와 30개 대기열의 과부하 하에서 16K 16/6 혼합 워크로드를 살펴보면 Fusion ioDrive Duo가 여전히 Lenovo ThinkServer에서 가장 높은 최고 전송 속도를 제공한다는 사실을 발견했습니다. 이는 Windows Server 2008 R2 64비트와 CentOS 6.2 환경 모두에 해당되며 Windows 성능보다 약간 앞서 있었습니다. 그 다음은 1.6TB OCZ Z-Drive R4였지만 Windows에서만 가능했습니다. 그 다음은 Windows 환경에서 더 높은 성능을 제공하는 LSI WarpDrive SLP-300이었습니다.

8K 70/30 테스트에서 평균 대기 시간으로 전환하면 드라이버 세트 간의 차이가 더욱 두드러집니다. Fusion ioDrive Duo는 Linux와 Windows 간에 가장 유사한 성능을 보였지만 Linux 드라이버 세트의 가장자리는 드라이브가 정상 상태에 도달함에 따라 더욱 분명해졌습니다. LSI WarpDrive는 Windows 드라이버가 최고의 성능을 제공하면서 드라이버 세트 사이의 평균 대기 시간에서 상당한 확산을 보였습니다. Windows의 OCZ Z-Drive R4는 그룹 중에서 평균 대기 시간이 가장 낮았으며 이는 가장 빠른 처리량과 함께 진행되었습니다. 그러나 Linux 성능은 Linux의 평균 약 46ms와 Windows의 평균 6ms 정도로 다시 차트에서 벗어났습니다.

ioDrive Duo, WarpDrive 및 Z-Drive R4의 최대 응답 시간을 살펴보면 4K 테스트에서 본 것과 동일한 많은 특성이 읽기 활동이 포함된 8K 70/30 워크로드에서 재생되었습니다. 이 테스트에서 Fusion-io ioDrive Duo는 가장 낮은 피크 대기 시간 곡선으로 시작한 다음 드라이브가 정상 상태로 전환되기 시작하면서 4시간 후에 약간 증가하기 시작했습니다. 당시에는 이 그룹의 드라이브 중 가장 낮은 곡선을 가진 Windows의 WarpDrive보다 위에 있었습니다. Windows와 Linux의 ioDrive Duo 간의 드라이버 차이점을 보면 Linux 드라이버가 더 높은 피크를 보였지만 테스트의 후반부로 갈수록 더 낮은(더 빠른) 곡선을 유지했습니다. 반면에 Windows의 Z-Drive R100는 피크가 더 높았지만 XNUMX% 쓰기 워크로드에서의 동작과 비교하여 전체적으로 진정되었습니다.

8K 70/30 워크로드의 사전 컨디셔닝 단계에서 표준 편차 프로필은 테스트 기간 동안 카드 간의 성능에 있어 흥미로운 차이점을 보여주었습니다. WarpDrive는 Windows에서 지속적으로 가장 빠른 응답 시간을 보였지만 Linux의 대기 시간 성능은 약간 부족했습니다. ioDrive Duo는 Linux에서 가장 좋은 모습을 보였고, OCZ Z-Drive R4는 이 테스트에서 100% 쓰기 4K 테스트에 비해 훨씬 향상된 대기 시간 표준 편차 프로필을 생성했습니다.

16% 16K 쓰기 테스트에서 수행한 고정된 100개 스레드, 4개 대기열 최대 워크로드와 비교할 때 혼합 워크로드 프로필은 광범위한 스레드/대기열 조합에서 성능을 확장합니다. 이 테스트에서 우리는 2개의 스레드와 2개의 대기열에서 최대 16개의 스레드와 16개의 대기열까지 워크로드 강도를 확장합니다. 방망이에서 가장 기괴한 프로필은 Windows 성능과 Linux 성능을 비교하는 OCZ Z-Drive R4입니다. Windows에서 가장 빠른 시간에 Linux에서 가장 느립니다. 우리가 테스트한 드라이버의 대기열 크기 조정 문제가 있습니다. 낮은 스레드 및 대기열 깊이에서 ioDrive Duo는 LSI SandForce 기반 WarpDrive 및 Z-Drive R4에 비해 강력한 성능을 보였습니다. 그러나 대기열 깊이가 증가함에 따라 다른 카드는 성능을 같거나 능가할 수 있었습니다. Windows 및 Linux 드라이버 환경을 비교할 때 ioDrive Duo는 전체 워크로드에서 거의 동등한 성능을 제공했습니다.

다양한 수준의 스레드 및 대기열 활동의 넓은 범위에서 평균 완료 대기 시간을 비교하면 WarpDrive는 Windows의 Z-Drive R4가 더 높은 대기열 깊이 부하에서 능가할 때까지 대부분의 경우 가장 낮은 응답 시간을 유지했습니다. ioDrive Duo는 Windows와 Linux 모두에서 거의 동일한 성능을 제공했으며 최고 출력 수준에서 약간의 차이만 있어 Linux 드라이버 세트를 주도했습니다.

8K 70/30 워크로드에서 최대 대기 시간을 살펴보는 것은 흥미로웠습니다. 낮은 스레드 및 대기열 수로도 드라이브의 최고 응답 시간이 여전히 높은 것으로 나타났기 때문입니다. Linux의 ioDrive Duo는 대부분의 워크로드에서 1,000ms까지 일관된 피크를 보인 반면 Windows 드라이버는 훨씬 조용했습니다. 이 특정 테스트에서 Windows의 ioDrive Duo는 16T/16Q 로드까지 가장 낮은 피크 응답 시간을 나타냈으며 WarpDrive가 바로 뒤를이었습니다.

때때로 높은 스파이크가 실망스러워 보일 수 있지만 표준 편차 대기 시간 플롯을 보면 Linux의 Z-Drive R4를 제외한 모든 장치의 훨씬 더 길들인 대기 시간 프로필을 볼 수 있습니다. 로드가 가장 높을 때까지 Windows의 ioDrive Duo는 가장 낮은 표준 편차를 유지했으며 Linux 드라이버가 약간 뒤를 따랐고 Windows의 WarpDrive와 Z-Drive R4가 그 뒤를 이었습니다.

파일 서버 워크로드는 각각의 특정 장치에 도달하는 더 큰 전송 크기 스펙트럼을 나타내므로 정적 4k 또는 8k 워크로드에 정착하는 대신 드라이브가 512b에서 64K 범위의 요청에 대처해야 합니다. 이 섹션에서는 Windows의 Z-Drive R4가 가장 높은 버스트 및 정상 상태 성능으로 두각을 나타냈고 ioDrive Duo가 그 뒤를 이었습니다. 버스트 모드에서 Windows의 ioDrive Duo는 더 빠른 속도를 제공했지만 드라이브가 정상 상태에 진입했을 때 Linux 성능으로 뒤집혔습니다. 그 다음으로 WarpDrive가 등장했는데 Windows 성능은 버스트 모드와 정상 상태 모드 모두에서 더 높았습니다.

File Server Preconditioning 테스트에서 평균 대기 시간을 보면 Z-Drive R4가 Windows의 ioDrive Duo 및 WarpDrive보다 훨씬 앞섰습니다. ioDrive는 Linux와 Windows 성능 간에 거의 차이가 없었지만 WarpDrive는 OS 간의 차이가 더 컸습니다.

각 드라이브의 사전 조정 단계에서 최대 대기 시간을 살펴보면 LSI WarpDrive는 Windows 시간보다 거의 400ms 점프한 Linux 최대 응답 시간으로 몇 가지 약점을 보여주었습니다. Linux 응답 피크의 ioDrive Duo는 Windows보다 높았지만 테스트 기간 동안 대부분은 테스트에서 가장 낮았지만 Windows 측은 평균적으로 더 높았지만 높은 대기 시간 스파이크가 거의 없었습니다. MLC 기반 OCZ Z-Drive R4는 대부분의 파일 서버 사전 조정 프로세스에서 흔들렸으며 테스트 첫 10,000시간 동안 일부 스파이크가 40,000-XNUMXms를 초과했습니다.

파일 서버 사전 조건 테스트를 통해 실행되는 장치의 표준 편차를 조사한 결과 가장 놀라운 차이점은 실제로 LSI WarpDrive에서 발견되었으며, 테스트 기간 동안 Linux I/O 응답 시간이 Windows 성능과 비교하여 크게 증가했습니다. ioDrive Duo는 드라이브가 정상 상태에 도달하면서 유사한 변화를 보았습니다. 여기서 두 경로가 분기되고 Windows 응답성이 덜 그룹화되었습니다. 전반적으로 이 섹션에서 최고의 성능을 보인 드라이브는 전체 테스트에서 가장 평평한 표준 편차 곡선을 유지한 Windows 환경의 LSI WarpDrive였습니다.

16T/16Q의 높은 로드에서 사전 조정 프로세스가 완료되면 광범위한 활동 수준에서 파일 서버 성능을 살펴보았습니다. Fusion-io ioDrive Duo는 낮은 스레드 및 대기열 수에서 최고의 성능을 유지했으며 더 높은 뛰어난 I/O 수준에서 처리량 면에서 OCZ Z-Drive R4를 능가했습니다.

다양한 부하 테스트에서 평균 대기 시간을 분석한 결과 Z-Drive R4는 테스트에서 활동이 포착됨에 따라 평균적으로 가장 빠른 응답 시간으로 XNUMX위를 차지했습니다. 스레드 수당 미해결 대기열 수준이 증가함에 따라 Windows 드라이버의 처리량이 약간 낮았음에도 불구하고 Linux 측에서 ioDrive Duo의 대기 시간이 증가했습니다.

기본 파일 서버 테스트 기간 동안 최대 대기 시간을 살펴보면 Linux의 ioDrive는 여전히 낮은 스레드/대기열 수 수준에서 더 높은 1,000ms 스파이크를 보여주었습니다. Windows 대응 제품은 16T/16Q 워크로드까지 가장 낮은 일관된 최대 응답 시간을 제공했습니다.

ioDrive Duo와 WarpDrive 모두의 파일 서버 표준 편차 프로필은 유효 대기열 깊이가 더 높아질 때까지 Windows와 Linux 모두에서 상당히 타이트하게 유지되었습니다. 아이오드라이브 듀오의 경우 윈도우 성능이 흩어진 16T/16Q 수준에서 리눅스 드라이버가 더 나은 평정을 유지했다.

우리의 마지막 워크로드는 테스트 버전의 기본 출력의 사전 조건화 단계를 분석하는 방식에서 다소 독특합니다. 100% 읽기 활동으로 설계된 워크로드로서 적절한 사전 조정 단계 없이는 각 장치의 진정한 읽기 성능을 보여주기 어렵습니다. 컨디셔닝 워크로드를 테스트 워크로드와 동일하게 유지하기 위해 패턴을 100% 쓰기로 전환했습니다. 이러한 이유로 전제 조건 차트는 최종 워크로드 수치보다 훨씬 더 극적입니다. 이러한 가혹한 조건에서 OCZ Z-Drive R4는 버스트에서 정상 상태까지 가장 높은 처리량을 유지했으며, ioDrive Duo가 그 다음, WarpDrive가 XNUMX위를 차지했습니다.

100% 쓰기 웹 서버 전제 조건 프로세스에 대한 평균 대기 시간은 Linux의 ioDrive Duo가 Windows 드라이버 세트보다 응답 시간이 약간 더 짧은 엣지를 갖는 것으로 나타났습니다. LSI WarpDrive는 거의 동일한 평균 응답 시간을 보인 반면 Z-Drive R4는 Windows와 Linux 성능 간에 큰 차이가 있었습니다.

웹 서버 사전 조건 곡선에서 최대 대기 시간을 보면 Z-Drive R4가 가장 높았지만 일단 평준화되면 높은 대기 시간 스파이크가 더 적게 유지되었습니다. ioDrive Duo를 보면 Linux 성능이 처리량과 평균 응답 시간 면에서 우위에 있었지만 이 테스트에서 가장 높은 스파이크가 1,200ms까지 올라간 반면 Windows 드라이버는 일반적으로 300-400ms 범위(1,600ms를 초과하는 하나의 큰 스파이크 제외).

SLC 기반 LSI WarpDrive는 Windows의 웹 서버 사전 조정 프로세스 기간 동안 가장 낮은 표준 편차 프로필을 유지했으며 Z-Drive R4가 진정되면 그 뒤를 이어 WarpDrive와 Linux 드라이버가 그 뒤를 이었습니다. Linux와 Windows의 ioDrive Duo.

전제 조건 프로세스 후 100% 읽기 웹 서버 워크로드로 다시 전환한 OCZ Z-Drive R4는 Windows 성능 내에서 확실히 최고의 성능을 제공했으며 최고 처리 속도는 두 배 이상이었습니다. 동시에 윈도우에서 가장 높은 성능을 제공하는 것과 동시에 가장 느린 리눅스 성능과 대조를 이뤘다. 작업 부하가 가장 작은 ioDrive Duo는 가장 빠른 속도로 다시 등장했지만 유효 대기열 깊이가 증가하자 Z-Drive R4가 빠르게 추월했습니다.

ioDrive Duo와 WarpDrive는 둘 다 Windows의 R4에 의해 쉽게 패했지만 웹 서버 평균 대기 시간 테스트에서 서로 가깝게 유지되었습니다.

읽기 집약적인 웹 서버 테스트에서 1,000ms 범위의 더 높은 대기 시간 스파이크 중 일부가 남아 있는 것을 보는 것은 다소 놀라운 일이었습니다. 비록 이 동작이 Linux의 ioDrive Duo에서 가장 많이 보이지만 세 장치 모두에서 기록되었습니다. 시험의 다른 점.

웹 서버 활동의 표준 편차 플롯은 ioDrive Duo가 더 높은 대기열 깊이 속도에서 지속적으로 더 높은 응답 시간을 가지며 최고 16T/16Q로 나타났습니다. 이것은 Windows 성능이 가장 높은 워크로드까지 타이트하게 유지되는 동안이었습니다. LSI WarpDrive는 대기 시간이 플러터를 시작한 Linux 측에서 끝날 때까지 상당히 평평한 프로필을 유지했습니다.

엔터프라이즈 종합 워크로드 분석(고성능 모드)

이 리뷰에서 세 가지 PCIe 응용 프로그램 가속기 중에서 Fusion-io ioDrive Duo만이 성능 향상을 위해 섹터 크기 또는 사용자가 볼 수 있는 포맷된 공간을 변경하는 방법을 제공합니다. 드라이브의 일부를 분할하고 다른 제품과 함께 사용하지 않는 것이 가능하지만 그 프로세스는 직관적이지 않습니다. 일부는 성능 향상을 위해 용량을 교환할 때의 의미조차 인식하지 못합니다.

이 검토의 대부분은 ioDrive Duo의 기본 기능에 중점을 두었지만 나머지 부분에서는 고성능 모드와 기본 구성 간에 성능이 어떻게 다른지 확인하기 위해 새로운 종합 작업 부하 분석을 다시 검토합니다. 장치당 320GB의 스톡 크기에서 ioDrive Duo는 RAW NAND와 사용자가 볼 수 있는 사이에 20% 초과 프로비저닝 수준이 있습니다. ioDrive Duo를 고성능 모드로 포맷하면 해당 용량이 256GB로 줄거나 36% 초과 프로비저닝이 발생하여 총 용량이 640GB에서 512GB로 줄어듭니다. 상당한 양의 가용 용량을 교환하는 동안 우리는 이것이 안정적인 성능에 얼마나 많은 영향을 미치는지 보고 놀랐습니다. 어떤 경우에는 두 배 이상의 성능을 보였습니다.

ioDrive Duo를 고성능 모드로 전환한 상태에서 4K 100% 쓰기 버스트 속도는 ~257k IOPS로 대략 동일하게 유지되었지만 정상 상태 성능의 차이는 극적입니다. 기본 구성의 ioDrive Duo는 사전 조정 단계가 끝날 때까지 41-42k IOPS의 처리 속도를 유지했지만 고성능 모드는 최대 약 90,000 IOPS 수준을 가져왔습니다. 이는 일부 사용자 용량을 희생하여 2배 이상 증가한 것입니다.

더 빠른 처리량과 함께 대기 시간도 4K 쓰기 사전 조건 단계에서 절반으로 줄었습니다.

4K 쓰기 사전 조건 테스트의 최대 대기 시간 프로필을 보면 이번에는 훨씬 더 낮지만 동일한 특성이 많이 남아 있습니다. Windows 4K 대기 시간은 원래 약간 더 높았지만 Linux 환경에서 나타난 높은 대기 시간 스파이크는 더 적었습니다. 드라이브가 고성능 모드로 포맷되었을 때 Windows 프로필에는 여전히 더 많은 지터가 있었지만 Linux 프로필은 더 나은 평정을 가지고 이전에 보았던 높은 대기 시간 급증이 없었습니다.

고성능 모드에서 ioDrive Duo의 극적인 개선을 보여주는 가장 눈에 띄는 차트는 대기 시간 표준 편차 프로필입니다. 백그라운드 GC 활동을 위한 공간이 증가함에 따라 전체 4K 100% 쓰기 로드에서 표준 편차가 이전 25-30ms에서 2-5ms로 감소했습니다.

기본 모드와 고성능 모드 간의 정상 상태 4K 100% 읽기 및 쓰기 점수를 비교하면 읽기 성능이 향상되지 않았습니다. 초과 프로비저닝은 일반적으로 읽기 또는 쓰기 버스트 속도에 영향을 주지 않고 정상 상태 쓰기 속도만 향상시키기 때문에 이는 드문 일이 아닙니다. 이 경우 100% 4K 읽기 성능은 140,000 IOPS를 조금 넘는 수준으로 유지되었으며 정상 상태 쓰기 성능은 40.9~42.6K에서 최대 90.4~91K IOPS로 뛰어 올랐습니다.

사전 조건화 단계에서 원래 관찰한 4K 쓰기 대기 시간의 개선은 기본 모드의 2.80-2.82ms와 비교하여 고성능 모드 ioDrive Duo에서 평균 6-6.25ms로 나타났습니다.

4K 읽기 평균 응답 시간의 눈에 띄는 감소 또는 처리량 증가를 측정하지 않았지만 고성능으로 구성된 ioDrive Duo는 훨씬 더 낮은 피크 읽기 응답을 제공했습니다. 피크 4K 쓰기 응답 시간도 크게 감소했습니다.

두 가지 오버 프로비저닝 모드 간의 표준 편차 차이는 낮과 밤이었으며 고성능 ioDrive Duo는 1.70-1.76ms로 측정되었고 이전에는 25.6-31.6ms로 측정되었습니다.

임의 4K 쓰기 성능의 성능 향상이 인상적이었지만, 우리는 읽기 활동이 혼합된 혼합 워크로드에서 ioDrive Duo가 어떻게 변화하는지 확인하는 데 더 관심이 있었습니다. 8K 70/30 사전 조건 테스트에서 고성능 모드에서 약 51K IOPS 이전의 53-76k IOPS 범위에서 처리량이 크게 증가했습니다. 오버 프로비저닝된 ioDrive Duo가 정상 상태로 더 빨리 떨어지기 시작했지만 버스트 속도는 포맷 구성 간에 매우 유사했습니다.

8K 70/30 워크로드의 대기 시간을 살펴보면 고성능 모드에서 ioDrive Duo의 Linux와 Windows 드라이버 간의 중간 정도의 차이가 사라졌습니다. 평균 대기 시간은 상당한 양으로 감소했으며 사전 조건 프로세스에서 매우 일관되게 유지되었습니다.

처리량 및 평균 대기 시간 개선이 중요하지만 최대 대기 시간은 ioDrive Duo의 구성을 변경할 때 주의해야 할 또 다른 요소입니다. 이 경우 추가로 과도하게 프로비저닝된 공간은 백그라운드에서 드라이브에 충분한 공간을 제공하여 스파이크 구성에서 보았던 대부분의 최대 대기 시간 점프를 억제했습니다. 그렇다고 해서 완전히 사라진 것은 아니지만 대부분의 활동이 훨씬 낮은 수준으로 떨어졌습니다.

대기 시간 표준 편차를 보면 ioDrive Duo에 추가 오버 프로비저닝 공간이 얼마나 큰 영향을 미칠 수 있는지 전체 그림을 볼 수 있습니다. 표준 편차는 5배 감소하여 이전에는 2-8ms에 비해 사전 조정 프로세스 전반에 걸쳐 약 12ms를 유지했습니다.

ioDrive Duo는 2T/2Q와 16T/16Q 사이에서 로드를 변경하는 주요 처리량 테스트에서 전반적으로 성능 이점을 계속 보여주었습니다.

ioDrive Duo 스톡을 고성능 모드와 비교한 8K 70/30 워크로드의 평균 대기 시간 차이를 살펴보면 각 스레드 수에서 더 높은 대기열 깊이에서 차이가 가장 두드러졌습니다.

8K 70/30 사전 조건 테스트의 최대 대기 시간 단계에서 보았듯이 테스트 기간 동안 동일한 높은 피크가 더 적기는 했지만 많이 남아 있었습니다.

전반적으로 대기 시간 표준 편차를 비교하면 초과 프로비저닝이 일부 증가된 대기열 깊이 로드에서 가장 큰 영향을 미쳤지만 8T/16Q와 같은 영역에서는 전혀 변화가 없었습니다.

Fusion ioDrive Duo는 오버 프로비저닝의 양을 늘려도 전체 처리량이 크게 향상되지 않았습니다. 성능은 여전히 ​​증가했지만 100% 4K 쓰기 또는 8K 70/30% 워크로드에서 발견된 극적인 점프와 비교하여 약간 증가했습니다.

파일 서버 사전 조건 테스트 기간 동안의 평균 대기 시간은 ioDrive Duo가 정상 상태 성능에 가까워짐에 따라 대략 7-7.5ms에서 6ms 이상으로 개선되었습니다.

Fusion ioDrive Duo는 처리량이나 평균 대기 시간이 크게 개선되지 않았지만 스톡 오버 프로비저닝 구성에서 발견되는 높은 대기 시간 급증을 억제할 수 있었습니다. 가장 큰 개선은 이전의 50-75ms 범위에 비해 정상 상태에서 약 225-250ms의 최고 대기 시간 상한선을 유지한 Windows 드라이버에서 발생했습니다.

파일 서버 사전 조건 테스트에서 대기 시간 표준 편차를 분석한 결과 드라이브가 정상 상태에 가까워지면 오버 프로비저닝이 증가하여 플러터가 최소로 유지되었습니다. Linux 대기 시간 표준 편차는 그다지 개선되지 않았지만 Windows 표준 편차는 12-14ms에서 3ms 바로 아래로 떨어졌습니다.

Fusion ioDrive Duo의 오버 프로비저닝을 늘리면 대부분의 스레드 및 큐 깊이 조합에서 카드의 성능이 약 5,000 IOPS 향상되었으며 큐 깊이 로드가 높을 때 가장 크게 증가했습니다.

Windows의 Fusin ioDrive Duo는 16T/16Q 로드에서 가장 느린 속도에서 가장 빠른 속도로 가장 크게 개선되어 두 영역 모두에서 대기 시간이 개선되었습니다.

파일 서버 워크로드의 피크 대기 시간을 비교하면 ioDrive Duo는 Linux에서 크게 진정되어 이전의 1,000ms 피크를 많이 잃었습니다. 이번에는 Windows 테스트에서 단 하나의 1,000ms 피크만 있었습니다.

전반적으로 표준편차가 많이 떨어졌고, 과잉 프로비저닝이 증가함에 따라 ioDrive Duo가 얼마나 진정되었는지 보여줍니다.

웹 서버 사전 조건 곡선이 웹 서버 활동을 가장 잘 나타내지는 않지만 사실 100% 쓰기에서는 그 반대이지만 증가된 과잉 프로비저닝이 얼마나 많은 영향을 미칠 수 있는지 보여줍니다. 총 처리량은 상당히 증가하여 OCZ Z-Drive R4를 능가합니다.

웹 서버 사전 조건 테스트 기간 동안의 평균 대기 시간은 이전에는 20ms 이상에서 고성능 모드에서는 10ms 이상으로 절반으로 줄었습니다.

초과 프로비저닝이 증가함에 따라 대기 시간이 긴 거의 모든 스파이크가 억제되었으며 Linux 성능이 가장 많이 향상되었습니다.

대기 시간 표준 편차는 웹 서버 사전 조정 섹션 기간 동안 극적으로 개선되었으며 Linux 측에서 가장 큰 변화가 있었으며 기본 성능에 비해 곡선이 거의 평평했습니다.

웹 서버 프로필을 다시 100% 읽기로 전환하면 이 특정 워크로드에서 스톡과 초과 프로비저닝 증가 사이의 처리 속도가 거의 또는 전혀 개선되지 않았습니다. 오버 프로비저닝은 실제로 쓰기 관련 성능에만 도움이 되므로 이는 놀라운 일이 아닙니다.

평균 대기 시간은 전반적으로 거의 동일했으며 추가 오버 프로비저닝으로 개선될 조짐이 거의 보이지 않았습니다.

처리량과 평균 대기 시간은 개선되지 않았지만 오버 프로비저닝 수준이 증가하면 이 100% 읽기 웹 서버 프로필에서 대기 시간이 긴 응답 시간이 완전히 사라졌습니다.

고성능 모드에서 ioDrive Duo를 사용하여 웹 서버 프로필에서 피크 대기 시간이 감소한 것과 유사하게 대기 시간 표준 편차도 Linux 테스트에서 크게 감소한 반면 Windows 테스트에서는 최소한의 개선이 나타났습니다.

결론

ioDrive Duo를 새롭게 살펴볼 때 눈에 띄는 몇 가지 사항이 있습니다. Fusion-io가 이 특정 반복 스토리지 기술의 초기 선구자이고 그들이 스토리지에 대한 몇 가지 주요 지적 재산을 소유하고 있다는 점을 감안할 때 전체 패키지가 너무 빡빡하다는 것은 놀라운 일이 아니지만 정밀도 수준은 신용 거래. 이는 이전 세대 기술로도 잘 작동하는 성능 측면의 정확성만이 아닙니다. 그러나 패키징에서 소프트웨어 인터페이스, 우리가 테스트한 Windows 및 Linux 버전을 포함하여 지원되는 많은 플랫폼에서 일관된 성능에 이르기까지 모든 곳에서 세련된 느낌의 측면에서 정밀합니다. 현재 ioDrive Duo는 초기 출시 이후 여러 차례 소프트웨어 업데이트를 거쳤지만 드라이브가 2009년 초에 출시된 것을 고려하면 수명이 거의 없습니다.

MLC 기반 드라이브의 경우 ioDrive Duo는 가장 가까운 경쟁자로 간주될 수 있는 SLC 기반 LSI WarpDrive에 대해 매우 잘 견딥니다. Enterprise Application Acceleration 세그먼트를 위해 정확히 설계된 제품으로서 두 모델 모두 여러 OS 플랫폼에 걸친 과중한 워크로드에 탁월합니다. 거의 모든 테스트에서 ioDrive Duo는 일관된 성능을 제공했지만 최대 대기 시간 측면에서 SLC-NAND가 포함된 WarpDrive가 MLC가 장착된 640GB ioDrive Duo보다 더 나은 결과를 보였습니다. MLC 기반 OCZ Z-Drive R4와 비교해 보면 이 두 제품이 어떻게 완전히 다른 시장을 위해 설계되었는지 쉽게 알 수 있습니다. Z-Drive는 저렴한 소비자 등급 NAND 및 차세대 컨트롤러 덕분에 고속 및 고용량을 제공했지만 피크 대기 시간 및 표준 편차는 ioDrive Duo 또는 WarpDrive보다 일관성이 없었습니다. Z-Drive의 강점은 읽기가 많은 측면에 더 많았던 반면 ioDrive Duo 및 WarpDrive는 쓰기가 많은 환경에서 자신의 위치를 ​​찾았습니다. ioDrive Duo와 WarpDrive가 모두 Linux에서 비슷한 성능을 제공하는 Windows 외부 배포의 경우 Z-Drive R4의 성능은 Windows 점수와 완전히 대조되어 전체적으로 기하 급수적으로 느린 성능을 나타냅니다.

물론 스톡 용량 ioDrive Duo는 정상 상태일 때 낮고 높은 대기열 깊이 테스트에서 빈번한 1,000ms 깜박임에서 볼 수 있듯이 약점이 없는 것은 아닙니다. 그러나 일관된 표준 편차를 감안할 때 이러한 오류의 대부분은 지속적으로 더 높은 응답률을 달성하는 대신 몇 번의 시간 이벤트였습니다. 플랫폼에 따라 또 다른 사소한 우려 사항이 발견될 수 있습니다. Linux가 Windows 성능을 약간만 능가하더라도 이 제품의 강점인 경향이 있기 때문입니다. 그러나 하루가 끝나면 이러한 대기 시간 문제는 300GB SLC 구성에서만 사용할 수 있는 LSI WarpDrive에 더 가까운 경쟁자로 볼 수 있는 SLC 기반 ioDrive Duo에는 나타나지 않을 것입니다.

ioDimm당 256GB에서 포맷된 용량을 320GB로 떨어뜨린 고성능 모드에서 ioDrive Duo를 테스트했을 때 경우에 따라 성능이 두 배 이상 증가했습니다. 4K 임의 쓰기 성능은 40,000 IOPS에서 90,000 IOPS로 급증했으며 동시에 최대 대기 시간은 바위처럼 떨어졌습니다. 속도와 짧은 대기 시간이라는 이름으로 용량을 기꺼이 교환하려는 기업 사용자를 위해 Fusion-io는 최종 사용자가 이러한 변경을 수행할 수 있는 쉬운 방법을 제공합니다. 사용자 공간을 수동으로 분할하고 사용하지 않는 섹션을 남겨두지 않는 한 경쟁 PCIe 솔루션은 이러한 유형의 성능 구성을 제공하지 않습니다. 이는 모든 애플리케이션에서 실현 가능하지 않을 수 있습니다.

장점

  • 모든 PCIe 응용 프로그램 가속기 공급업체의 소프트웨어 및 하드웨어의 가장 긴밀한 통합
  • Windows와 Linux 드라이버 간의 가장 가까운 성능 패리티
  • 고성능 모드에서 더욱 향상되는 재고 모드의 뛰어난 처리량 및 대기 시간
  • 강력한 낮은 대기열/낮은 스레드 수 성능

단점

  • 다른 솔루션보다 설치 및 초기 설정이 어려울 수 있음(외부 전원 필요, 내장 OS 드라이버 지원 없음)
  • ioDrive를 메모리 계층으로 표시하는 데 사용되는 VSL 풋프린트와 함께 더 많은 시스템 리소스가 필요합니다.

히프 라인

사용 편의성 측면에서 ioDrive Duo는 PCIe 응용 프로그램 가속기가 최종 사용자에게 제공되어야 하는 방법에 대한 표준을 설정합니다. 사용되는 운영 체제에 관계없이 제공되는 GUI 및 콘솔 관리 도구까지 경험은 거의 동일합니다. 첫날부터 사용자는 OS에 관계없이 자리에 앉아 ioDrive Duo의 하드웨어 상태를 확인하고 원하는 대로 포맷하거나 오버 프로비저닝하여 생산에 투입할 수 있습니다. ioDrive Duo는 엔터프라이즈 스토리지 시장의 그 어떤 것보다 더 세련된 완벽한 제품입니다.

Fusion-io Duo 제품 페이지

이 검토에 대해 토론

업데이트 8/17/12 - 우리의 LSI Nytro WarpDrive 검토 이 Fusion-io 검토에 사용된 차트에 게시되고 추가되었습니다.