Memblaze는 PBlaze64 3-5 시리즈에서 910단 916D NAND NVMe SSD 시리즈를 출시했습니다. 드라이브는 U.2 및 AIC 폼 팩터로 출시되었으며 910은 최대 15.36TB의 용량을 제공합니다. 드라이브의 더 높은 내구성 버전은 916입니다. 우리는 이전에 916 U.2 SSD 현재 고성능 HHHL AIC 버전에 집중하고 있습니다.
Memblaze는 PBlaze64 3-5 시리즈에서 910단 916D NAND NVMe SSD 시리즈를 출시했습니다. 드라이브는 U.2 및 AIC 폼 팩터로 출시되었으며 910은 최대 15.36TB의 용량을 제공합니다. 드라이브의 더 높은 내구성 버전은 916입니다. 우리는 이전에 916 U.2 SSD 현재 고성능 HHHL AIC 버전에 집중하고 있습니다.
Memblaze PBlaze5 916 AIC SSD는 AES 2 데이터 암호화, 전체 데이터 경로 보호 및 향상된 정전 보호를 포함하여 U.256 버전의 모든 이점을 제공합니다. 916 버전은 또한 3 DWPD만 지원하는 910에 비해 1 DWPD를 지원하여 내구성이 더 높습니다. 916 AIC는 5.9개의 추가 레인을 활용하여 최대 2.8GB/s 읽기 및 1GB/s 쓰기 속도와 303만 IOPS 읽기 및 XNUMXK IOPS 쓰기 처리량으로 인용된 속도로 훨씬 더 많은 성능을 제공합니다.
Memblaze PBlaze5 916 AIC SSD는 3.2TB와 6.4TB로 제공되며, 이 리뷰에서는 6.4TB 버전을 살펴봅니다.
Memblaze PBlaze5 916 시리즈 AIC 사양
가용 용량(TB) | 3.2, 6.4 |
폼 팩터 | HHHL AIC |
인터페이스 : | PCIe 3.0 x 8 |
순차 읽기(128KB)(GB/s) | 5.5, 5.9 |
순차적 쓰기(128KB)(GB/s) | 3.1, 3.8 |
지속적인 임의 읽기(4KB) IOPS | 850K, 1,000K |
지속적인 임의 쓰기(4KB) IOPS(안정 상태) | 210K, 303K |
대기 시간 읽기/쓰기 | 87/11μs |
평생 내구성 | 3 DWPD |
우버 | 10 ~ 17 미만 |
MTBF | 2 백만 시간 |
프로토콜 | NVMe 1.2a |
NAND 플래시 메모리 | 3D eTLC 낸드 |
운영 체제 | RHEL, SLES, CentOS, 우분투, 윈도우 서버, VMware ESXi |
전력 소비 | 7 ~ 25W |
기본 기능 지원 | 정전 보호, 핫플러그 가능, 전체 데이터 경로 보호, SMART: TRIM, 다중 네임스페이스, AES 256 데이터 암호화, 빠른 재부팅, 암호화 지우기, |
고급 기능 지원 | TRIM, 다중 네임스페이스, AES 256 데이터 암호화, 빠른 재부팅, 암호화 지우기, 듀얼 포트 |
소프트웨어 지원 | 오픈 소스 관리 도구, CLI 디버그 도구, OS 인박스 드라이버 (쉬운 시스템 통합) |
퍼포먼스
테스트베드
당사의 엔터프라이즈 SSD 검토는 애플리케이션 테스트를 위해 Lenovo ThinkSystem SR850을 활용하고 델 파워에지 R740xd 합성 벤치마크용. ThinkSystem SR850은 고성능 로컬 스토리지에 스트레스를 주는 데 필요한 것보다 훨씬 더 많은 CPU 성능을 제공하는 잘 갖춰진 쿼드 CPU 플랫폼입니다. 많은 CPU 리소스가 필요하지 않은 합성 테스트는 보다 전통적인 듀얼 프로세서 서버를 사용합니다. 두 경우 모두 스토리지 공급업체의 최대 드라이브 사양과 일치하는 최상의 조명에서 로컬 스토리지를 보여주기 위한 것입니다.
레노버 씽크시스템 SR850
- 4 x Intel Platinum 8160 CPU(2.1GHz x 24코어)
- 16 x 32GB DDR4-2666Mhz ECC DRAM
- RAID 2-930i 8Gb/s RAID 카드 12개
- NVMe 베이 8개
- VM웨어 ESXI 6.5
델 파워에지 R740xd
- Intel Gold 2 CPU 6130개(2.1GHz x 16코어)
- 4GB DDR16-4MHz ECC DRAM 2666개
- 1x PERC 730 2GB 12Gb/s RAID 카드
- 애드인 NVMe 어댑터
- 우분투-16.04.3-데스크탑-amd64
테스트 배경 및 유사 항목
The StorageReview 엔터프라이즈 테스트 랩 관리자가 실제 배포에서 경험하는 것과 유사한 환경에서 엔터프라이즈 스토리지 장치의 벤치마크를 수행하기 위한 유연한 아키텍처를 제공합니다. Enterprise Test Lab은 다양한 서버, 네트워킹, 전력 조절 및 기타 네트워크 인프라를 통합하여 직원이 실제 조건을 설정하여 검토 중에 성능을 정확하게 측정할 수 있도록 합니다.
랩 환경 및 프로토콜에 대한 이러한 세부 정보를 검토에 통합하여 IT 전문가와 스토리지 구입 책임자가 다음 결과를 달성한 조건을 이해할 수 있도록 합니다. 우리의 리뷰는 우리가 테스트하는 장비 제조업체에서 비용을 지불하거나 감독하지 않습니다. 에 대한 추가 세부 정보 StorageReview 엔터프라이즈 테스트 랩 그리고 네트워킹 기능 개요 해당 페이지에서 사용할 수 있습니다.
이 리뷰에 대한 비교:
- 멤블레이즈 PBlaze5 3.2TB
- 액체 요소 AIC 7.68TB
- 인텔 SSD DC P4610 1.6TB
- 화웨이 ES3000 V5 3.2TB
- 인텔 SSD DC P4510 2TB, 8TB
- 멤블레이즈 PBlaze5 910 AIC 7.68TB
애플리케이션 워크로드 분석
엔터프라이즈 스토리지 장치의 성능 특성을 이해하려면 라이브 프로덕션 환경에서 발견되는 인프라 및 애플리케이션 워크로드를 모델링하는 것이 필수적입니다. 따라서 Memblaze PBlaze5 916에 대한 우리의 벤치마크는 SysBench를 통한 MySQL OLTP 성능 그리고 마이크로소프트 SQL 서버 OLTP 성능 시뮬레이션된 TCP-C 워크로드를 사용합니다. 애플리케이션 워크로드의 경우 각 드라이브는 2-4개의 동일하게 구성된 VM을 실행합니다.
SQL 서버 성능
각 SQL Server VM은 100개의 vDisk(부팅용 500GB 볼륨, 데이터베이스 및 로그 파일용 16GB 볼륨)로 구성됩니다. 시스템 리소스 관점에서 각 VM을 vCPU 64개, DRAM XNUMXGB로 구성하고 LSI Logic SAS SCSI 컨트롤러를 활용했습니다. Sysbench 워크로드는 이전에 스토리지 I/O 및 용량 모두에서 플랫폼을 포화 상태로 테스트했지만 SQL 테스트는 대기 시간 성능을 찾고 있습니다.
이 테스트는 Windows Server 2014 R2012 게스트 VM에서 실행되는 SQL Server 2를 사용하며 Quest의 Benchmark Factory for Databases에서 스트레스를 받습니다. StorageReview의 Microsoft SQL Server OLTP 테스트 프로토콜 복잡한 애플리케이션 환경에서 발견되는 활동을 시뮬레이트하는 온라인 트랜잭션 처리 벤치마크인 TPC-C(Transaction Processing Performance Council의 벤치마크 C) 최신 초안을 사용합니다. TPC-C 벤치마크는 합성 성능 벤치마크보다 데이터베이스 환경에서 스토리지 인프라의 성능 강점과 병목 현상을 측정하는 데 더 가깝습니다. 이 검토를 위한 SQL Server VM의 각 인스턴스는 333GB(1,500개 규모) SQL Server 데이터베이스를 사용하고 15,000명의 가상 사용자 로드에서 트랜잭션 성능과 대기 시간을 측정합니다.
SQL Server 테스트 구성(VM당)
- 윈도우 서버 2012 R2
- 스토리지 공간: 600GB 할당, 500GB 사용
- SQL 서버 2014
- 데이터베이스 크기: 1,500 규모
- 가상 클라이언트 로드: 15,000
- RAM 버퍼: 48GB
- 시험 시간: 3시간
- 2.5시간 전처리
- 30분 샘플 기간
SQL Server 트랜잭션 벤치마크의 경우 Memblaze PBlaze5 916 AIC가 12,645.0 TPS로 1.1위를 차지했지만 XNUMX위에서 XNUMX TPS밖에 차이가 나지 않았습니다.
성능을 더 잘 이해하려면 대기 시간도 살펴봐야 합니다. 여기서 916 AIC는 1.3ms로 나머지 910/916 시리즈를 제치고 XNUMX위를 차지했습니다.
시스벤치 성능
다음 애플리케이션 벤치마크는 Percona MySQL OLTP 데이터베이스 SysBench를 통해 측정. 이 테스트는 평균 TPS(Transactions Per Second), 평균 대기 시간 및 평균 99번째 백분위수 대기 시간도 측정합니다.
각각의 시스벤치 VM은 92개의 vDisk로 구성됩니다. 하나는 부팅용(~447GB), 하나는 사전 구축된 데이터베이스(~270GB), 세 번째는 테스트 중인 데이터베이스용(16GB)입니다. 시스템 리소스 관점에서 각 VM을 vCPU 60개, DRAM XNUMXGB로 구성하고 LSI Logic SAS SCSI 컨트롤러를 활용했습니다.
Sysbench 테스트 구성(VM당)
- 센트OS 6.3 64비트
- 페르코나 XtraDB 5.5.30-rel30.1
- 데이터베이스 테이블: 100
- 데이터베이스 크기: 10,000,000
- 데이터베이스 스레드: 32
- RAM 버퍼: 24GB
- 시험 시간: 3시간
- 2시간 동안 32개 스레드 사전 조정
- 1시간 32 스레드
Sysbench 트랜잭션 벤치마크에서 916 AIC는 9,298 TPS로 XNUMX위를 차지했습니다.
Sysbench 평균 대기 시간의 경우 916 AIC가 13.8ms로 XNUMX위를 유지했습니다.
최악의 시나리오 대기 시간(99번째 백분위수)의 경우 916 AIC가 25.2ms 대기 시간으로 XNUMX위를 차지했습니다.
SideFX의 후디니
Houdini 테스트는 CGI 렌더링과 관련하여 스토리지 성능을 평가하도록 특별히 설계되었습니다. 이 애플리케이션의 테스트 베드는 코어의 변형입니다. 델 파워에지 R740xd 이중 Intel 6130 CPU 및 64GB DRAM과 함께 연구실에서 사용하는 서버 유형입니다. 이 경우 베어 메탈을 실행하는 Ubuntu Desktop(ubuntu-16.04.3-desktop-amd64)을 설치했습니다. 벤치마크의 출력은 완료하는 데 몇 초 만에 측정되며 적을수록 좋습니다.
Maelstrom 데모는 스왑 파일을 확장 메모리의 한 형태로 효과적으로 사용하는 기능을 보여줌으로써 스토리지의 성능 기능을 강조하는 렌더링 파이프라인의 섹션을 나타냅니다. 테스트는 기본 스토리지 구성 요소에 대한 대기 시간 영향의 벽 시간 효과를 격리하기 위해 결과 데이터를 작성하거나 포인트를 처리하지 않습니다. 테스트 자체는 XNUMX단계로 구성되며 그 중 XNUMX개는 벤치마크의 일부로 실행되며 다음과 같습니다.
- 디스크에서 압축된 포인트를 로드합니다. 이것은 디스크에서 읽을 시간입니다. 이는 단일 스레드이므로 전체 처리량이 제한될 수 있습니다.
- 처리할 수 있도록 포인트를 단일 플랫 배열로 압축 해제합니다. 포인트가 다른 포인트에 종속되지 않는 경우 작업 세트가 코어에 유지되도록 조정할 수 있습니다. 이 단계는 다중 스레드입니다.
- (실행 안 함) 포인트를 처리합니다.
- 디스크에 다시 저장하기에 적합한 버킷 블록으로 다시 압축합니다. 이 단계는 다중 스레드입니다.
- (실행 안 함) 버킷 블록을 다시 디스크에 씁니다.
Houdini 테스트에서 916 AIC는 3,070.7초 동안 Optane이 아닌 드라이브의 정중앙에 착지했으며 910 AIC와 맞붙었습니다.
VDBench 워크로드 분석
스토리지 장치를 벤치마킹할 때 애플리케이션 테스트가 가장 좋고 합성 테스트가 두 번째입니다. 실제 워크로드를 완벽하게 표현하는 것은 아니지만 합성 테스트는 경쟁 솔루션 간의 비교를 쉽게 할 수 있는 반복성 요소를 사용하여 스토리지 장치의 기준선을 만드는 데 도움이 됩니다. 이러한 워크로드는 "포 코너" 테스트, 일반적인 데이터베이스 전송 크기 테스트에서 다양한 VDI 환경의 추적 캡처에 이르기까지 다양한 테스트 프로필을 제공합니다. 이러한 모든 테스트는 스크립팅 엔진과 함께 공통 vdBench 워크로드 생성기를 활용하여 대규모 컴퓨팅 테스트 클러스터에서 결과를 자동화하고 캡처합니다. 이를 통해 플래시 어레이 및 개별 저장 장치를 포함한 광범위한 저장 장치에서 동일한 작업 부하를 반복할 수 있습니다. 이러한 벤치마크에 대한 테스트 프로세스는 전체 드라이브 표면을 데이터로 채운 다음 드라이브 용량의 25%에 해당하는 드라이브 섹션을 분할하여 드라이브가 애플리케이션 작업 부하에 어떻게 반응하는지 시뮬레이션합니다. 이것은 드라이브의 100%를 사용하고 정상 상태로 만드는 전체 엔트로피 테스트와 다릅니다. 결과적으로 이러한 수치는 더 높은 지속 쓰기 속도를 반영합니다.
프로필 :
- 4K 임의 읽기: 100% 읽기, 128 스레드, 0-120% iorate
- 4K 임의 쓰기: 100% 쓰기, 64 스레드, 0-120% iorate
- 64K 순차 읽기: 100% 읽기, 16 스레드, 0-120% iorate
- 64K 순차 쓰기: 100% 쓰기, 8개 스레드, 0-120% 속도
- 합성 데이터베이스: SQL 및 Oracle
- VDI 전체 클론 및 연결된 클론 추적
첫 번째 VDBench 워크로드 분석인 Random 4K Read에서 Memblaze PBlaze5 916 AIC를 다른 두 AIC 드라이브인 Memblaze PBlaze5 910 및 Liqid Element와 비교했습니다. 여기에서 916은 Liqid가 선두에 있는 가운데 910 바로 뒤에 목과 목이 떨어졌습니다. 916은 81,010μs의 99 IOPS에서 시작하여 대기 시간 809,069μs의 157 IOPS에서 정점에 도달했습니다.
무작위 4K 쓰기는 마지막으로 916에 대해 동일한 배치를 보여주었습니다. 여기서 916은 64,157μs에 불과한 17.7 IOPS에서 시작했습니다. 드라이브는 약 100K IOPS까지 25μs 미만, 실제로는 578μs를 유지할 수 있었습니다.
순차 워크로드로 전환하면서 먼저 64K 순차 읽기를 살펴봅니다. 여기에서 916은 다시 한 번 910에 이어 우리 팩의 최하위에 올랐습니다. 916은 50,011μs의 대기 시간과 함께 3.13 IOPS 또는 319GB/s로 정점을 찍었습니다.
64K 쓰기에서는 916이 910 바로 뒤에서 916위로 밀려났습니다. 여기에서 4,308은 256 IOPS 또는 50MB/s에서 시작하여 30μs 대기 시간 라인을 최대 1.85K IOPS 또는 42,319GB/s까지 올라간 후 2.65 IOPS 또는 370에서 정점에 도달했습니다. XNUMXμs 대기 시간에서 GB/s.
다음은 SQL 워크로드입니다. 여기서도 916은 최하위였지만 916은 아주 약간만 구부러졌습니다. 916은 대기 시간 27,120μs에서 100.9 IOPS로 시작하여 대기 시간 269,845μs에서 118.1 IOPS로 정점에 도달했습니다. 처음부터 끝까지 18μs 대기 시간 차이만 발생합니다.
SQL 90-10의 경우 916은 27,381 IOPS와 97.7μs의 대기 시간으로 916위를 차지했습니다. 100은 약 82K IOPS에서 273,081μs를 넘어섰고 116.3μs의 대기 시간으로 XNUMX IOPS에서 정점에 도달했습니다.
SQL 80-20에서 916의 배치는 28,023 IOPS 및 88.9μs 대기 시간에서 시작하여 277,572μs의 대기 시간으로 114.6 IOPS에서 정점에 도달했습니다.
Oracle 워크로드의 경우 916이 910을 간신히 앞섰습니다. 여기에서 드라이브는 대기 시간 30,716μs의 91.2 IOPS에서 시작하여 대기 시간 282,888μs의 126.2 IOPS에서 정점에 도달했습니다.
Oracle 90-10은 916이 거의 마지막까지 떨어지는 것을 보았습니다. 여기에서 드라이브는 대기 시간 40,494μs의 98.2 IOPS에서 시작하여 대기 시간 202,512μs의 107.9 IOPS에서 정점에 도달했습니다.
Oracle 80-20의 경우 916이 다시 910에서 42,276위를 차지했습니다. 드라이브는 대기 시간 87.6μs의 100 IOPS에서 시작하여 대기 시간 169μs의 210,628 IOPS에서 약 103.8 IOPS가 정점에 도달할 때까지 XNUMXμs 미만을 유지했습니다. .
다음으로 VDI 클론 테스트인 Full and Linked로 이동합니다. VDI 전체 복제 부팅의 경우 916은 22,788μs 대기 시간의 107.9 IOPS에서 시작하여 218,323μs 대기 시간의 158.9 IOPS에서 XNUMX위를 차지했습니다.
VDI FC 초기 로그인의 경우 916은 대기 시간 910μs에서 15,487 IOPS로 시작하여 69.7에 이어 100위를 차지했으며 약 65K IOPS까지 147,777μs 미만을 유지했습니다. 드라이브는 최고 199.4 IOPS와 XNUMXμs의 대기 시간을 기록했습니다.
VDI FC Monday Login은 916 IOPS에서 처음 시작하는 10,213 테이크와 89.4μs의 지연 시간을 가졌습니다. 드라이브는 약 100K IOPS까지 35μs 미만을 유지했으며 101,673 IOPS에서 최대 155.5μs의 대기 시간으로 계속되었습니다.
VDI LC(Linked Clone)의 경우 부팅 테스트를 다시 한 번 시작합니다. 여기서 916은 대기 시간 9,598μs에서 127 IOPS로 시작하여 98,621위를 차지했으며 대기 시간 161.6μs에서 XNUMX IOPS로 정점을 찍었습니다.
VDI LC 초기 로그인에서 916은 910을 제치고 5,599위를 차지했습니다. 여기에서 드라이브는 대기 시간 94.2μs의 100 IOPS에서 시작하여 약 20K IOPS에서 916μs를 초과했습니다. 55,416은 142.1μs의 대기 시간과 함께 XNUMX IOPS로 정점을 찍었습니다.
마지막으로 VDI LC 월요일 로그인에서는 916이 78,483 IOPS의 최고 성능과 201.3μs의 대기 시간으로 XNUMX위를 차지했습니다.
결론
Memblaze PBlaze5 916은 회사의 64단 3D NAND NVMe SSD 중 하나입니다. 이 특정 검토를 위해 AIC 폼 팩터를 살펴보았습니다. AIC 폼 팩터는 916 라인, AES 256 데이터 암호화, 전체 데이터 경로 보호, 향상된 정전 보호 및 더 높은 내구성의 모든 동일한 이점을 허용하는 동시에 U.2 대응 제품보다 훨씬 더 높은 성능을 제공합니다. 916 AIC는 5.9DWPD와 함께 최대 2.8만 IOPS 읽기 및 1K IOPS 쓰기 처리량과 함께 303GB/s 읽기 및 3GB/s 쓰기 속도를 인용했습니다.
애플리케이션 워크로드 분석에서 Memblaze PBlaze5 916 AIC는 SQL Server와 Sysbench 모두에서 강력한 성능을 보여주었습니다. 이 드라이브는 12,645 TPS와 평균 대기 시간 1.3ms로 SQL Server 출력에서 916위를 차지했습니다. Sysbench의 경우 9,298 AIC는 13.8 TPS, 평균 대기 시간은 25.2ms였으며 최악의 시나리오 대기 시간은 3070.7ms로 XNUMX위를 차지했습니다. 후디니는 XNUMX초로 덜 강한 성능을 보였다.
VDBench의 경우 다른 두 AIC 모델인 Memblaze PBlaze916 5 AIC 및 Liqid Element AIC에 대해 910 AIC를 테스트했습니다. 여기서 성능은 좋았지 만 배치로 인해 혼합 된 것처럼 보였습니다. 자주 916이 다른 두 드라이브에 대해 마지막으로 들어왔지만 매번 910의 스니핑 거리 내에 있었습니다. 하이라이트는 4K IOPS의 무작위 809K 읽기 점수, 4K IOPS의 무작위 578K 쓰기 점수, 64GB/s의 3.13K 순차 점수 및 2.65GB/s의 순차 쓰기 점수를 포함합니다. 여기서 더 흥미로운 것은 대기 시간이었습니다. 최대 370μs에서도 대부분의 임의 25K 쓰기에서 드라이브가 4μs 미만으로 실행되면서 가장 높았습니다. SQL은 각 테스트에서 88.9만 IOPS가 넘는 최고 점수를 보였고 대기 시간 범위는 118.1μs에서 불과 283μs로 모든 테스트에서 매우 낮고 일관되었습니다. Oracle 최고 점수는 SQL만큼 강하지는 않았지만(첫 번째는 87.6K IOPS였음) 가장 높은 최고치에서 126.2μs에서 XNUMXμs 범위의 낮은 일관된 대기 시간을 또 한 번 보여주었습니다.
Memblaze PBlaze5 916 AIC는 일관되고 낮은 대기 시간이 필요한 애플리케이션에 이상적인 선택입니다. Add In Card 특성으로 인해 핫 스왑 기능을 포기하게 되지만(내구력도 높지만 잠재적으로 더 높은 유지 관리가 가능함) 성능, 특히 대기 시간 성능에서 이를 보완하는 것 이상입니다.