홈페이지 Enterprise Memblaze PBlaze3H 및 PBlaze3L 애플리케이션 가속기 검토

Memblaze PBlaze3H 및 PBlaze3L 애플리케이션 가속기 검토

by 마크 키드

Memblaze는 Memblaze의 Pianokey 기술의 일부로 3가지 용량에 걸쳐 PBlaze38에 대한 어지러운 배열의 구성을 제공합니다. 이 검토를 위해 평가된 MLC 기반 드라이브 외에도 두 드라이브 모두 SLC 에디션에서도 사용할 수 있습니다. PBlaze3 플랫폼의 Pianokey 및 기타 핵심 구성 요소는 Memblaze의 고유한 독점 기술로 제작되었으며, 이는 Memblaze의 새로운 제품 라인을 주시해야 하는 이유 중 하나입니다. Memblaze가 비슷한 드라이브에 비해 자사 제품에 대해 주장하는 장점 중 하나는 카드가 작동을 위한 대부분의 계산 및 DRAM 요구 사항을 제공하여 호스트 시스템에 대한 PBlaze3의 작동 오버헤드를 줄여준다는 것입니다.


Memblaze는 Memblaze의 Pianokey 기술의 일부로 3가지 용량에 걸쳐 PBlaze38에 대한 어지러운 배열의 구성을 제공합니다. 이 검토를 위해 평가된 MLC 기반 드라이브 외에도 두 드라이브 모두 SLC 에디션에서도 사용할 수 있습니다. PBlaze3 플랫폼의 Pianokey 및 기타 핵심 구성 요소는 Memblaze의 고유한 독점 기술로 제작되었으며, 이는 Memblaze의 새로운 제품 라인을 주시해야 하는 이유 중 하나입니다. Memblaze가 비슷한 드라이브에 비해 자사 제품에 대해 주장하는 장점 중 하나는 카드가 작동을 위한 대부분의 계산 및 DRAM 요구 사항을 제공하여 호스트 시스템에 대한 PBlaze3의 작동 오버헤드를 줄여준다는 것입니다.

새로운 기술 벤처가 자신을 알리는 한 가지 방법은 해당 시장 부문에서 기존 플레이어와 경쟁하는 것입니다. 그렇기 때문에 Memblaze는 PCIe 플래시 제품이 기회가 있을 때마다 Fusion-io를 능가한다고 주장합니다. Memblaze는 2.4TB PBlaze3H MLC 및 1.2TB PBlaze3L MLC의 평가 장치를 제공하여 Fusion-io의 동급 드라이브 및 PCIe SSD 시장의 다른 기존 제품과 경쟁할 수 있도록 했습니다.

Memblaze 드라이브 아키텍처 다이어그램

멤블레이즈 PBlaze3 사양

  • 1.2TB PBlaze3L MLC
    • 사용 가능한 용량: 600GB – 1200GB
    • 폼 팩터: 절반 높이, 절반 길이
    • 전력 소비: 10W – 25W
    • 읽기 대역폭(64KB): 2.4GB/s
    • 쓰기 대역폭(64KB): 1.1GB/s
    • 임의 읽기(4KB) IOPS: 615,000
    • 임의 쓰기(4KB) IOPS: 130,000
    • 임의 읽기 및 쓰기(4KB 75:25 R/W) IOPS: 500,000
    • 일반 R/W 액세스 대기 시간(4KB): 80μs/14μs
    • 평생 내구성: 8PB – 16PB
    • 무게 : 190g
  • 2.4TB Pblaze3H MLC
    • 사용 가능한 용량: 1200GB – 2400GB
    • 폼 팩터: 전체 높이, 절반 길이
    • 전력 소비: 30W – 55W
    • 읽기 대역폭(64KB): 3.2GB/
    • 쓰기 대역폭(64KB): 2.2GB/s
    • 임의 읽기(4KB) IOPS: 750,000
    • 임의 쓰기(4KB) IOPS: 260,000
    • 임의 읽기 및 쓰기(4KB 75:25 R/W) IOPS: 600,000
    • 일반 R/W 액세스 대기 시간(4KB): 80μs/14μs
    • 비트 오류율(BERM): 10e-20 미만
    • 평생 내구성: 16PB – 33PB
  • MTBF : 2,000,000 시간
  • 무게 : 350g
  • 인터페이스: PCI 익스프레스 2.1 x8
  • 플래시 유형: NAND MLC(다중 레벨 셀)
  • 운영 체제 지원: RHEL, SLES, CentOS, Windows, ESXi, KVM
  • 파일 시스템 지원: NTFS, FAT, FAT32, EXT2, EXT3, EXT4, XFS, VMFS
  • 관리: CLI, GUI, Telnet, SSH
  • 작동 온도: 0ºC ~ 50ºC
  • 비작동 온도: -40ºC – 70ºC
  • 냉각 조건: >300LFM@25ºC                                                                   
  • 웨어 레벨링
  • 대기 시간 평활              
  • 전력 손실 보호: 폴리머 커패시터, 18-20ms의 보유 시간
  • 소프트웨어 RAID 지원: 0, 1, 5
  • 데이터 보호: Supper Error Correction, RAIDCross NAND, Backup Die, Randomizer

설계 및 구축

PBlaze3 제품군은 50GB 단위로 다양한 용량과 NAND 유형을 허용하는 Memblaze의 독점적인 Pianokey 기술을 활용합니다. Memblaze는 38개의 다른 구성을 제공할 수 있는 반면, 이는 하나 또는 두 개의 다른 구성만 사용할 수 있는 시장의 기존 디자인과 크게 다릅니다. PBlaze3 제품군은 두 가지 기본 보드 디자인으로 구성됩니다. 전체 높이 절반 길이 이중 컨트롤러 모델(Pblaze3H) 및 절반 높이 절반 길이 단일 컨트롤러 모델(Pblaze3L).

PBlaze3는 호스트 시스템의 오버헤드 요구 사항을 줄이기 위해 단일 컨트롤러와 온카드 DRAM을 사용합니다. Fusion-io, Virident 및 Huawei와 마찬가지로 Memblaze는 ASIC 대신 FPGA 설계를 활용합니다.

관리 관점에서 Memblaze는 Windows와 Linux 모두에서 카드를 모니터링하고 관리하는 유틸리티를 제공합니다. Windows에서는 펌웨어 업데이트, 카드 포맷, 오버 프로비저닝 및 성능 모니터링을 위한 원스톱 상점인 GUI와 인터페이스합니다.

우리는 Linux에서 동일한 기능을 많이 제공하지만 공간의 다른 것보다 약간 덜 정제된 CLI를 사용했습니다. 결국 관리 인터페이스가 번거로움 없이 작동하는 한 대부분의 사용자의 기대치를 충족합니다.

테스트 배경 및 유사 항목

The StorageReview 엔터프라이즈 테스트 랩 SAN 관리자가 실제 배치에서 경험하는 것과 유사한 환경에서 엔터프라이즈 스토리지 장치의 벤치마크를 수행하기 위한 유연한 아키텍처를 제공합니다. Enterprise Test Lab은 다양한 서버, 네트워킹, 전력 조절 및 기타 네트워크 인프라를 통합하여 직원이 실제 조건을 설정하여 검토 중에 성능을 정확하게 측정할 수 있도록 합니다.

랩 환경 및 프로토콜에 대한 이러한 세부 정보를 검토에 통합하여 IT 전문가와 스토리지 구입 책임자가 다음 결과를 달성한 조건을 이해할 수 있도록 합니다. 우리의 리뷰는 우리가 테스트하는 장비 제조업체에서 비용을 지불하거나 감독하지 않습니다. 에 대한 추가 세부 정보 StorageReview 엔터프라이즈 테스트 랩 그리고 네트워킹 기능 개요 해당 페이지에서 사용할 수 있습니다.

PCIe 응용 프로그램 가속기는 레노버 씽크서버 RD630. 합성 벤치마크의 경우 FIO Linux용 버전 2.0.10 및 Windows용 버전 2.0.12.2. 합성 테스트 환경에서는 클록 속도가 2.0GHz인 주류 서버 구성을 사용하지만 더 강력한 프로세서가 있는 서버 구성이 더 나은 성능을 낼 수 있습니다.

  • 2 x Intel Xeon E5-2620(2.0GHz, 15MB 캐시, 6코어)
  • 인텔 C602 칩셋
  • 메모리 – 16GB(2GB 8개) 1333Mhz DDR3 등록 RDIMM
  • Windows Server 2008 R2 SP1 64비트, Windows Server 2012 Standard, CentOS 6.3 64비트
  • LSI 9211-4i SAS/SATA 6.0Gb/s HBA(부팅 SSD용)
  • LSI 9207-8i SAS/SATA 6.0Gb/s HBA(SSD 또는 HDD 벤치마킹용)

이 리뷰에 대한 비교:

애플리케이션 워크로드 분석

엔터프라이즈 스토리지 장치의 성능 특성을 이해하려면 라이브 프로덕션 환경에서 발견되는 인프라 및 애플리케이션 워크로드를 모델링하는 것이 필수적입니다. 따라서 Memblaze PBlaze3H 및 PBlaze3L의 처음 세 가지 벤치마크는 MarkLogic NoSQL 데이터베이스 스토리지 벤치마크SysBench를 통한 MySQL OLTP 성능 그리고 마이크로소프트 SQL 서버 OLTP 성능 시뮬레이션된 TCP-C 워크로드를 사용합니다.

NoSQL 데이터베이스에는 200개의 데이터베이스 노드에 약 650GB의 공간이 필요하므로 MarkLogic NoSQL 데이터베이스 환경에는 가용 용량이 최소 24GB인 30개의 SSD 그룹이 필요합니다. 우리의 프로토콜은 SCST 호스트를 사용하고 데이터베이스 노드당 하나씩 할당된 JBOD의 각 SSD를 제공합니다. 테스트는 36회 간격으로 반복되며 총 XNUMX~XNUMX시간이 소요됩니다. MarkLogic은 각 SSD의 총 평균 대기 시간과 간격 대기 시간을 기록합니다.

두 PBlaze3 드라이브 모두 MarkLogic NoSQL 벤치마크에서 우수한 성능을 발휘했으며, 2.4TB PBlaze3H는 1.38ms로 비교 제품 중에서 가장 낮은 평균 대기 시간을 기록했습니다. 1.2TB PBlaze3L은 평균 지연 시간이 3.08ms로 중간에 머물렀습니다.

MarkLogic NoSQL 전체 평균 지연 시간 결과

NoSQL 벤치마크 동안 PBlaze3H 대기 시간 결과를 면밀히 살펴보면 몇 가지 사소한 스파이크가 있지만 특별히 눈에 띄는 문제 지점은 없습니다.

PBlaze3H MarkLogic 대기 시간 결과

Memblaze PBlaze3L은 MarkLogic NoSQL 벤치마크 동안 저널 쓰기 및 병합 쓰기 작업에 더 많은 문제가 있습니다.

Memblaze PBlaze3L 대기 시간 결과

다음 애플리케이션 벤치마크는 다음으로 구성됩니다. SysBench를 통해 측정된 Percona MySQL OLTP 데이터베이스. 이 구성에서는 다음 그룹을 사용합니다. 레노버 ThinkServer RD630s 단일 드라이브에 저장된 데이터베이스 클라이언트 및 데이터베이스 환경으로. 이 테스트는 평균 TPS(Transactions Per Second), 평균 대기 시간 및 99~2개 스레드 범위에서 평균 32번째 백분위수 대기 시간을 측정합니다. Percona와 MariaDB는 데이터베이스의 최신 릴리스에서 Fusion-io 플래시 인식 애플리케이션 API를 사용하고 있지만 이 비교를 위해 "레거시" 블록 스토리지 모드에서 각 장치를 테스트합니다.

MySQL 벤치마크에서 스레드 수가 3개 이상으로 증가함에 따라 두 PBlaze1.2 드라이브 모두 초당 평균 트랜잭션 측면에서 최상위 위치로 순항합니다. 3TB PBlaze3,069L은 32개의 스레드로 2.4TPS에서 최고를 기록하고 3TB PBlaze3,384H는 XNUMXTPS에 도달합니다.

PBlaze3 Sysbench TPS 결과

PBlaze3 플랫폼은 또한 Sysbench MySQL 벤치마크 동안 더 높은 스레드 수에서 평균 대기 시간 측면에서 경쟁 제품을 능가합니다.

최악의 MySQL 대기 시간 시나리오에서 두 개의 PBlaze3 드라이브는 대기 시간이 눈에 띄게 급증하지 않았습니다. PBlaze3L과 PBlaze3H는 벤치마크 전체에서 99번째 백분위수 대기 시간 측면에서 최고의 성능을 유지했으며 더 큰 워크로드에서 최고의 성능을 보였습니다.

Memblaze PBlaze3 Sysbench 99번째 대기 시간 결과

StorageReview의 Microsoft SQL Server OLTP 테스트 프로토콜 복잡한 애플리케이션 환경에서 발견되는 활동을 시뮬레이션하는 온라인 트랜잭션 처리 벤치마크인 TPC-C(Transaction Processing Performance Council의 벤치마크 C) 최신 초안을 사용합니다. TPC-C 벤치마크는 합성 성능 벤치마크보다 데이터베이스 환경에서 스토리지 인프라의 성능 강점과 병목 현상을 측정하는 데 더 가깝습니다. 당사의 SQL Server 프로토콜은 685GB(3,000개 규모) SQL Server 데이터베이스를 사용하고 30,000명의 가상 사용자 로드에서 트랜잭션 성능과 대기 시간을 측정합니다.

초당 트랜잭션 측면에서 두 PBlaze3 드라이브 모두 Microsoft SQL 벤치마크에서 유사한 드라이브와 보조를 맞출 수 있었습니다. 1.2TB PBlaze3L은 6,315TPS를, 2.4TB PBlaze3H는 6,321TPS를 달성했습니다.

Microsoft SQL 벤치마크에서 성능을 평가하기 위한 더 중요한 메트릭은 평균 대기 시간입니다. 30,000명의 가상 사용자의 워크로드에서 두 Memblaze 드라이브의 성능이 우수했습니다. PBlaze3H는 대기 시간을 3ms로 유지한 반면 PBlaze3L은 평균 7ms를 유지했습니다.

합성 워크로드 분석

합성 벤치마크 프로토콜 각각은 장치를 테스트하는 데 사용될 동일한 워크로드로 대상 스토리지를 정상 상태로 사전 조정하는 것으로 시작합니다. 사전 조건화 프로세스는 스레드당 16개의 미결 대기열과 함께 16개의 스레드라는 과도한 로드를 사용합니다.

사전 조건화 및 기본 정상 상태 테스트:

  • 처리량(읽기+쓰기 IOPS 집계)
  • 평균 대기 시간(읽기+쓰기 대기 시간을 함께 평균화)
  • 최대 대기 시간(최대 읽기 또는 쓰기 대기 시간)
  • 대기 시간 표준 편차(함께 평균화된 읽기+쓰기 표준 편차)

사전 조건이 완료되면 비교되는 각 장치는 여러 스레드/대기열 깊이 프로필에서 테스트되어 사용량이 적은 경우와 사용량이 많은 경우의 성능을 보여줍니다. 이 검토를 위한 합성 워크로드 분석에서는 제조업체 사양 및 벤치마크에서 널리 참조되는 두 가지 프로필을 사용합니다.

  • 4k 프로필
    • 100% 읽기 및 100% 쓰기
  • 8K 프로필
    • 70% 읽기, 30% 쓰기

3개의 PBlaze3 SSD에 대한 애플리케이션 성능 벤치마크는 통합 차트와 결과를 사용했지만 합성 벤치마크는 두 카드를 독립적으로 제시합니다. 가장 유용한 분석을 제공하기 위해 우리는 Linux 및 Windows 호스트 시스템과 PBlazeXNUMX 드라이브를 표준 모드 및 향상된 오버프로비저닝을 사용하는 고성능(HP) 프로필로 구성하여 이러한 벤치마크를 수행했습니다.

Linux 호스트 시스템과 함께 사용되는 2.4TB PBlaze3H는 FIO 4k 벤치마크를 위한 사전 조정 프로세스 전체에서 강력한 결과를 유지합니다. 표준 및 고성능 오버프로비저닝 프로파일 모두 초기 버스트 기간의 일부 동안 ES3000을 능가하는 Huawei ES3000에 이어 강력한 XNUMX위를 유지합니다.

1.2TB PBlaze3L은 Linux에서 4k 사전 조정 중에 고성능 프로필로 구성했을 때 드라이브가 정상 상태에 도달함에 따라 확실한 XNUMX위 결과로 자리 잡았습니다.

PBlaze3H 4k 쓰기 성능의 전반적인 아크는 StorageReview Windows 테스트베드에서 Linux 벤치마크 동안과 동일하지만 PBlaze3H는 Linux 사전 컨디셔닝 동안보다 Windows 호스트의 버스트 기간 동안 더 큰 범위의 성능 값을 경험합니다.

1.2TB PBlazeL은 Linux에서와 마찬가지로 Windows에서 잘 작동하지 않지만, PBlaze3L은 고성능을 위해 오버프로비저닝될 때 드라이브가 안정 상태에 접근하기 때문에 결국 FlashMAX II를 제치고 비교 제품 중 XNUMX위를 차지했습니다.

4k Linux 벤치마크를 위한 사전 조정 중에 2.4TB PBlaze3H 클럭은 강력한 평균 지연 시간을 나타내어 표준 및 고성능 프로필을 모두 생성합니다. PBlaze3H는 PBlaze3000H가 고성능으로 구성되었을 때 정상 상태에서 1ms 근처에 있는 Huawei ES3과 함께 무더위 상태에 빠졌습니다.

Linux의 1.2k 벤치마크를 위해 3TB Memblaze PBlaze4L을 사전 조정하는 동안 평균 대기 시간 결과도 강했습니다. 표준 PBlaze3L 프로필은 프리컨디셔닝 동안 평균 대기 시간이 3.65ms에 가까운 결과를 얻었고 고성능 프로필은 정상 상태에 가까운 약 1.7ms로 XNUMX위를 차지했습니다.

Windows 테스트베드를 사용하여 4k 사전 조정하는 동안 2.4TB PBlaze3H는 Linux 호스트를 사용하는 PBlaze3H와 비슷한 평균 대기 시간 성능 결과를 나타냅니다.

1.2TB PBlaze3L은 Windows 호스트로 사전 조정하는 동안 평균 대기 시간 결과에서 강력한 성능을 유지하기가 더 어렵습니다. 고성능 PBlaze3L 프로필은 전제 조건이 정상 상태에 접근함에 따라 여전히 Micron P420m 및 Fusion ioDrive2를 능가합니다.

최대 대기 시간 결과가 더 다양해진 버스트 기간 이후에 2.4TB PBlaze3H는 Linux에서 4k 사전 조정 중에 표준 및 고성능 프로필 모두에서 거의 50ms 미만인 최대 대기 시간을 유지했습니다. 이로 인해 PBlaze3H는 Huawei ES3000 및 Micron P420m보다 벤치마크가 안정된 상태에 도달했습니다.

1.2TB PBlaze3L은 두 프로필 모두에서 Linux의 4k 사전 조정 동안 최대 대기 시간 측면에서 훨씬 더 경쟁력이 있었습니다. 사전 조정 약 30분부터 시작하여 두 PBlaze3L 구성은 일반적으로 Huawei ES3000보다 약간 낮아져 Micron P420m에 이어 XNUMX위를 유지했습니다.

2.4TB PBlaze3H는 Windows 테스트베드에서 4k 사전 조정 중에 최대 대기 시간에 더 많은 변화가 있었지만 전반적인 결과는 Linux에서 측정한 것과 동일합니다. 두 PBlaze3H 오버프로비저닝 체계는 Huawei ES3000 및 MicronP420m보다 약간 높은 최대 대기 시간을 기록합니다.

PBlaze3L은 Windows에서 Linux와 마찬가지로 4k 사전 조정 중에 최대 대기 시간을 상당히 낮게 유지할 수 없지만 Huawei 및 Micron의 제품을 제외한 모든 비교 제품을 능가할 수 있습니다.

표준 편차 계산을 플로팅하면 벤치마크 중에 수집된 개별 대기 시간 데이터 포인트 간의 변동량을 더 명확하게 비교할 수 있습니다. 2.4TB Memblaze PBlaze3H는 표준 구성의 경우 표준 편차가 약 4ms, 고성능 프로필로 오버프로비저닝된 경우 2ms로 표준 편차가 정해지는 Linux에서 1.1k 사전 조정 중에 일관된 대기 시간을 경험했습니다.

1.2TB PBlaze3L은 고성능을 위해 오버프로비저닝될 때 Linux에서 420k 사전 조건의 중간 지점까지 대기 시간 표준 편차 측면에서 Micron P4m을 앞지르기 시작합니다. 표준 구성에서 PBlaze3L은 약 3000ms로 Huawei ES1.1 바로 뒤에 머물 수 있었습니다.

고성능을 위해 오버프로비저닝된 2.4TB PBlaze3H는 Windows 3000k 전제 조건에서 Huawei ES4의 표준 편차 결과와 거의 일치할 수 있었으며 PBlaze3H와 Huawei ES3000은 모두 MicronP420m보다 뒤처졌습니다. 표준 오버프로비저닝을 통해 PBlaze3H는 4k 사전 조정의 중간 지점에서 FlashMAX II에 훨씬 더 가까운 표준 편차 결과를 경험했습니다.

1.2TB PBlaze3L은 고성능을 위해 오버프로비저닝될 때 4k Windows 사전 조정에서 가장 일관된 지연 시간 결과를 달성할 수 있지만, 이 차트 하단에는 상위 XNUMX개 제품이 모두 밀집되어 있습니다.

4k 벤치마크에 대한 Linux 사전 조정이 완료된 2.4TB PBlaze3H는 표준 구성에서 읽기 작업에 대해 474,839IOPS를 기록하고 고성능 오버프로비저닝으로 약 3,000IOPS를 추가합니다. 쓰기 작업에 대한 142,844IOPS는 두 번째로 높은 성능 구성에서 254,931IOPS로 가장 높은 위치로 뛰어오릅니다.

1.2TB PBlaze3L은 표준 및 고성능 구성에서 3k 합성 벤치마크 동안 Linux의 PBlaze4H 형제와 비슷한 읽기 성능을 달성합니다. 표준 구성에서 고성능 오버프로비저닝으로 전환하면 쓰기 성능에 눈에 띄는 차이가 생겨 PBlaze3L이 쓰기 성능에서 두 번째에서 마지막으로 두 번째로 높은 150,066IOPS로 이동합니다.

2.4TB PBlaze3H는 고성능 오버프로비저닝을 통해 4IOPS에서 Linux 테스트베드보다 Windows에서 588,421k 더 높은 읽기 처리량을 유지할 수 있습니다. 두 가지 오버프로비저닝 프로필의 경우 PBlaze3H는 쓰기 처리량에서 Huawei ES3000에 이어 두 번째이지만 고성능 프로필은 PBlaze3H를 Huawei에 근접한 254,100IOPS로 제공합니다.

1.2TB PBlaze3L은 Windows에서 4k 읽기 처리량으로 견고한 XNUMX위를 차지했으며 성능 향상을 위해 오버프로비저닝을 재구성할 때 쓰기 처리량에서 마지막에서 두 번째에서 두 번째로 성능이 이동합니다.

2.4TB PBlaze3H는 특히 쓰기 작업에 대해 4k Linux 벤치마크 동안 강력한 평균 대기 시간 결과를 기록했습니다.

1.2TB PBlaze3L은 표준 오버프로비저닝으로 구성된 경우 Linux에서 상당한 평균 대기 시간을 관리하지만 고성능을 위해 오버프로비저닝된 경우 Linux에서 4k 작업으로 두 번째로 좋은 평균 쓰기 대기 시간에 도달할 수도 있습니다.

Windows에서 2.4TB PBlaze3H는 평균 대기 시간 측면에서 4k 벤치마크에서 최고 성능의 경쟁 제품과 경쟁합니다. 더 높은 성능을 위해 오버프로비저닝된 PBlaze3H는 평균 대기 시간을 읽기 작업에서 0.44ms, 쓰기 작업에서 1ms로 유지합니다.

1.2TB PBlaze3L은 또한 Windows 환경에서 성능을 위해 오버프로비저닝할 때 가장 경쟁력이 있습니다. 해당 구성에 대해 4k 쓰기 전송의 평균 대기 시간을 2.09ms로 유지할 수 있었습니다.

최대 대기 시간 결과는 4k 벤치마크 동안 대기 시간 성능에 대한 최악의 시나리오를 나타냅니다. 2.4TB PBlaze3H는 읽기 작업에 대한 최대 대기 시간이 Linux 테스트베드와 비교할 때 가장 높았지만 PBlaze3H는 표준 구성에서 쓰기 작업에 대한 최대 대기 시간이 세 번째로 좋은 9.37ms로 쓰기 대기 시간 측면에서 훨씬 뛰어났습니다. 더 높은 성능을 위한 오버프로비저닝은 3k 쓰기 전송이 있는 PBlaze4H의 최대 대기 시간 점수를 개선하지 못했습니다.

1.2TB PBlaze3H는 Linux 테스트베드의 3k 벤치마크 동안 PBlaze4L 형제보다 더 나은 최대 읽기 대기 시간을 경험합니다. PBlaze3H를 오버프로비저닝하면 최대 쓰기 대기 시간이 8.8ms에서 5.07ms로 줄어들지만 읽기 대기 시간은 4k 증가합니다.

2.4TB PBlaze3H는 또한 Windows에서 4k 작업에 대한 최대 읽기 대기 시간 측면에서 가장 성능이 좋지 않았지만 쓰기 작업에 대해서는 동급 최고의 최대 대기 시간 결과를 달성했습니다. 최고의 쓰기 대기 시간 성능은 고성능을 위해 오버프로비저닝되었을 때 6.12ms로 나타났습니다.

1.2TB PBlaze3L은 또한 4k Windows 벤치마크 동안 동급 드라이브의 최대 대기 시간 점수를 따라잡기 위해 고군분투하지만 고성능을 위해 오버프로비저닝될 때 최대 대기 시간을 동급 최고인 5.22ms로 유지할 수 있습니다.

표준 편차 계산 결과를 플로팅하면 4k 벤치마크 프로토콜 동안 대기 시간 결과가 얼마나 일관된지에 대한 통찰력을 얻을 수 있습니다. 이 기준으로 볼 때 2.4TB PBlaze3H는 Linux 테스트베드의 읽기 작업 측면에서 선두는 아니지만 표준 오버프로비저닝 및 더 높은 성능을 위한 오버프로비저닝 모두 쓰기 작업에서 XNUMX위로 미끄러져 올라갑니다.

1.2TB PBlaze3L은 표준 및 고성능 구성 모두에서 Linux 테스트베드와 함께 팩 중간에 4k 대기 시간 표준 편차를 유지합니다. 쓰기 작업을 통해 PBlaze3L은 고성능 구성에서 표준 편차를 0.678ms로 유지할 수 있으며 비교 대상 중 두 번째로 우수합니다.

2.4TB PBlaze3H는 표준 오버프로비저닝 및 고성능 구성 시 Windows 4k 작업에서 4위를 차지합니다. 고성능 프로필은 1.01k 쓰기 작업의 표준 편차를 XNUMXms로 떨어뜨립니다.

4TB PBlaze1.2L을 사용하는 Windows에서 3k 전송에 대한 대기 시간 표준 편차 플롯은 놀라운 점을 나타내지 않습니다. PBlaze3L은 고성능을 위해 오버프로비저닝될 때 읽기 작업에 대해 가장 높은 표준 편차와 쓰기 작업에 대해 두 번째로 좋은 0.635ms의 클럭을 기록합니다.

다음 워크로드는 8%의 읽기 작업과 70%의 쓰기 작업 비율로 30k 전송을 사용합니다. 첫 번째 차트 세트는 사전 조정 프로세스 중에 수행된 측정값을 나타냅니다. PBlaze3H가 당사의 Linux 플랫폼에서 최고의 처리량을 위해 Huawei ES3000과 함께 최고의 위치를 ​​놓고 경쟁하는 버스트 기간 이후 PBlaze3H는 더 높은 성능을 위해 오버프로비저닝될 때 눈에 띄게 개선되어 XNUMX위를 차지했습니다.

Linux 테스트베드의 초기 버스트 성능 기간 동안 1.2TB PBlaze3L은 표준 구성 및 고성능 오버프로비저닝에서 비슷한 성능을 보입니다. 40분 이상에서 두 구성이 갈라지며 사전 조건 곡선이 정상 상태에 가까워짐에 따라 고성능 구성이 약 8,000 더 큰 IOPS로 비교 대상 중에서 XNUMX위를 차지합니다.

Windows에서 2.4TB PBlaze3H는 8k 70/30 벤치마크에 대한 사전 조정 중에 간격 사이에 처리량 성능 값의 현저한 순환을 경험합니다. 이러한 현상에 관계없이 고성능 구성은 사전 조정 프로세스에 +30분 더 소요되어 동급 드라이브 중에서 선두를 차지합니다.

1.2TB PBlaze3L은 Windows에서 동일한 주기 패턴을 경험하지 않았으며 곡선이 정상 상태에 가까워짐에 따라 고성능으로 구성되었을 때 Huawei ES3000에 대한 XNUMX위 성능을 유지할 수 있습니다.

Linux 2.4k 3/8 사전 조정 중 70TB PBlaze30H에 대한 평균 대기 시간 값에 대한 우리의 측정은 이 프로토콜 전체에서 Huawei ES3000 바로 위이며 PBlaze3H는 비교 대상 중에서 XNUMX위를 차지했습니다.

1.2TB PBlaze3L은 표준 구성과 Linux에서 8k 70/30 사전 조정 중에 고성능 오버프로비저닝 사이의 평균 대기 시간에 더 큰 변화가 있습니다. 고성능 PBlaze3L 구성은 이러한 비교 대상 중에서 두 번째입니다.

2.4TB PBlaze3H는 Windows에서 3000k 8/70 벤치마크를 위한 사전 조정 중에 고성능을 위해 오버프로비저닝할 때 평균 대기 시간 측면에서 Huawei ES30을 능가할 수 있습니다.

1.2TB PBlaze3L은 표준 구성에서 약 2.5ms의 1.6위 평균 대기 시간과 고성능을 위해 XNUMXms 오버프로비저닝되어 Windows에서 안정적인 상태로 이동합니다.

2.4TB PBlaze3H는 일반적으로 Linux의 50k 70/8 벤치마크에 대한 사전 조정 프로세스 중에 70ms에서 30ms 범위의 최대 대기 시간을 경험했으며, 이와 관련하여 대부분의 비교 대상에 비해 낮은 점수를 받았습니다.

1.2TB PBlaze3L은 Linux에서 8k 70/30 프리컨디셔닝 동안 최대 대기 시간 측면에서 훨씬 우수했으며 표준 및 고성능 오버프로비저닝 모두에서 대부분의 스파이크가 20ms 미만이었습니다.

2.4TB PBlaze3H는 Windows에서 8k 70/30 사전 조정의 버스트 기간 동안 크고 불규칙한 대기 시간을 경험했으며 일부 대기 시간이 3초를 초과함에 따라 차트의 규모를 벗어났습니다. PBlaze100H가 정상 상태에 접근함에 따라 표준 및 고성능 구성 모두에 대해 최대 대기 시간 값이 XNUMXms 미만으로 안정화되었습니다.

1.2TB PBlaze3L은 8k 70/30 벤치마크를 위한 사전 조정 중에 Windows에서 훨씬 더 나은 최대 대기 시간을 경험했습니다.

2.4k 3/8 Linux 사전 조정 중 70TB PBlaze30H에 대한 표준 편차 계산은 PBlaze3H가 표준 오버프로비저닝을 사용하는지 아니면 더 높은 성능을 위해 오버프로비저닝되는지 여부에 관계없이 PBlaze3H의 대기 시간 성능이 비교적 일관됨을 보여줍니다. 첫 XNUMX시간의 사전 조정이 끝날 무렵 PBlazeXNUMXH는 유사 제품 중에서 세 번째로 우수한 성능을 보였습니다.

1.2TB PBlaze3L은 Linux 테스트베드에서 훨씬 더 일관된 대기 시간 성능을 경험합니다. 고성능 오버프로비저닝을 통해 PBlaze3L은 Micron P420m 및 Huawei ES3000과 함께 최고의 위치를 ​​놓고 경쟁합니다.

Windows 8k 70/30 프리컨디셔닝 중 대기 시간 표준 편차 플롯도 버스트 기간 동안 2.4TB PBlaze3H가 경험하는 성능 문제를 강조합니다. 두 PBlaze3H 구성 모두 이 기간 동안 8ms 이상의 표준 편차 스파이크를 경험합니다.

Windows의 1.2TB PBlaze3L에 대한 표준 편차 결과는 8k 70/30 벤치마크를 위한 사전 조정 중에 Huawei 및 Micron 선두주자 바로 뒤를 쫓았습니다.

Linux 테스트베드에서 8k 70/30 사전 컨디셔닝이 완료된 2.4TB PBlaze3H는 PBlaze3000H가 고성능을 위해 오버프로비저닝될 때 Huawei ES3과 최고의 성능을 놓고 경쟁합니다. 최고의 성능은 워크로드에 따라 다르며 PBlaze3H가 이 프로토콜의 워크로드의 절반 이상을 차지합니다.

1.2TB PBlaze3L은 Linux 3000k 8/70 벤치마크에서 Huawei ES30을 능가할 수 없지만 고성능을 위해 조정될 때 결정적인 XNUMX위 처리량 결과를 달성합니다.

Windows에서 8k 70/30 처리량 측면에서 2.4TB PBlaze3H는 고성능으로 구성되었을 때 254,325개의 스레드와 16개의 대기열 깊이로 16IOPS에서 정점을 찍을 때 최고의 위치를 ​​차지할 수 있습니다. 3IOPS, Huawei ES200,0853에만 뒤쳐짐.

1.2TB PBlaze3L은 고성능으로 구성되었을 때 3000k 8/70 Windows 벤치마크 동안 Huawei ES30에 이어 전체적으로 XNUMX위를 차지했습니다.

2.4TB PBLaze3H에 대한 Linux의 평균 대기 시간 결과는 더 높은 성능을 위해 오버프로비저닝될 때 Huawei ES3000 바로 위입니다. 표준 오버프로비저닝을 사용하면 PBlaze3H의 평균 대기 시간 프로파일은 PBlaze420H가 비교 대상을 능가하기 시작할 때 대기열 깊이가 8인 최대 8개의 스레드 워크로드에서 Micron P3m 및 FlashMAX II와 유사합니다.

1.2TB PBlaze3L은 또한 더 나은 성능을 위해 오버프로비저닝되었을 때 8k 70/30 Linux 벤치마크 동안 두 번째로 좋은 평균 대기 시간 결과를 주장할 수 있습니다. 표준 오버프로비저닝을 사용하면 팩 중간에서 수행됩니다.

이 2.4TB PBlaze3H 최대 대기 시간 결과는 많은 워크로드를 사용하는 8k 사전 조정 중에 Windows에서 캡처된 일부 불규칙한 결과에 대한 더 많은 통찰력을 제공합니다. 최대 대기 시간은 PBlaze3H가 고성능을 위해 오버프로비저닝되고 8스레드/16대기열 워크로드로 작업될 때 PBlaze3H가 거의 78ms의 최대 대기 시간을 경험했을 때 특히 급증합니다. 고성능으로 구성된 동안 16 스레드/16 대기열 워크로드에서 측정된 최대 대기 시간은 87.5ms였습니다. 표준 오버프로비저닝을 사용하는 경우 PBlaze3H는 8스레드/16대기열 워크로드 및 16스레드/16대기열 워크로드에서 더 작은 스파이크를 경험했습니다.

대조적으로 1.2TB PBlaze3L은 Linux의 8k 70/30 벤치마크 동안 최대 대기 시간을 확인합니다. 더 높은 성능을 위한 오버프로비저닝은 더 가벼운 워크로드를 사용하는 표준 구성보다 최대 대기 시간을 약간 낮게 유지하지만 8스레드/16 대기열 워크로드부터 최대 대기 시간 성능을 거의 개선하지 않습니다.

Windows의 8k 70/30 벤치마크에서 최대 대기 시간을 표시했을 때 2.4TB PBlaze3H는 Linux보다 낮은 최대 대기 시간을 훨씬 더 잘 유지할 수 있었습니다. 그러나 고성능을 위해 오버프로비저닝된 경우 PBlaze3H는 벤치마크의 가장 집중적인 단계에서 121ms로 급증합니다. 이것은 다시 사전 조정 중에 많은 워크로드가 있는 PBlaze3H의 성능 변화에 귀를 기울입니다.

Windows에서 1.2TB PBlaze3L은 대부분의 8k 70/30 프로토콜에 대해 대기 시간이 가장 낮은 세 가지에 속하지만, 표준 오버프로비저닝이 있는 PBlaze3L은 910스레드/16대기열 워크로드에서 Intel SSD 16보다 뒤처집니다.

고성능을 위해 구성된 2.4TB PBlaze3H가 8k 70/30 벤치마크 동안 Linux에서 문제가 있었던 세 가지 워크로드를 제외하고 표준 편차 결과는 동급 최고의 성능만큼 일관됩니다. 표준 오버프로비저닝은 16ms의 표준 편차로 16 스레드/0.99 대기열 워크로드 동안 일관된 대기 시간 결과를 유지하는 비교적 사소한 문제만 있습니다.

1.2TB PBlaze3L은 고성능 오버프로비저닝을 사용할 때 Linux 8k 70/30 벤치마크에 대한 표준 편차 계산에서 매우 경쟁력 있는 XNUMX위를 유지했습니다.

2.4TB PBlaze3H는 표준 오버프로비저닝 또는 고성능 오버프로비저닝으로 구성되었는지 여부에 관계없이 Windows에서 16대 비교 대상 중 하나를 유지합니다. 고성능으로 구성된 경우 16개 스레드/1.23개 대기열 워크로드의 표준 편차 값은 XNUMXms로 급증합니다.

Windows에서 고성능을 위해 오버프로비저닝된 1.2TB PBlaze3L은 420k 8/70 작업에 대한 대기 시간 결과에서 계산된 최상의 표준 편차 값을 위해 Micron P30m과 밀접하게 경쟁합니다. 표준 오버프로비저닝으로 PBLaze3L은 여전히 ​​잘 작동하며 세 번째로 좋은 결과를 유지합니다.

결론

Memblaze PBlaze3는 과중한 합성 작업 부하에서 PBlaze3H의 성능으로 해결해야 할 몇 가지 거친 지점이 있지만 많은 가능성을 가진 새로운 기술 플랫폼을 나타냅니다. 그러나 대부분의 경우 PBlaze3H와 PBlaze3L은 지금까지 StorageReview Enterprise Testing Lab을 통과한 동급 최고의 PCIe SSD에 비해 강력한 성능을 보였습니다.

일반적인 조건은 현장에서 시간 테스트를 거치지 않은 기술에 적용되지만, PBlaze3 플랫폼의 견고한 전체 성능은 Memblaze가 PCIe SSD 시장의 기존 이름 중 플레이어가 될 수 있음을 시사합니다. Pianokey 아키텍처를 통한 비정상적으로 다양한 용량 옵션은 일부 고객에게 완벽한 화음을 낼 수 있지만 성능과 수명은 PBlaze3를 경쟁자로 만들 것입니다. 우리가 본 성능에서 PBlaze3 제품군은 확실한 기회를 가지고 있습니다.

장점

  • 애플리케이션 벤치마크의 강력한 성능
  • 사용 가능한 다양한 용량

단점

  • 2.4TB PBlaze3H는 일부 과중한 워크로드에서 약간의 흔들림을 경험합니다.

히프 라인

Memblaze PBlaze3 플랫폼에는 몇 가지 거친 부분이 있지만 그 성능은 진화하는 엔터프라이즈 PCIe SSD 공간에서 이 새로운 경쟁자에게 큰 가능성을 제시합니다.

멤블레이즈 제품

이 검토에 대해 토론