EMC의 VNX5200 스토리지 컨트롤러는 EMC VNX2 오퍼링의 진입점이며 옵션 파일 및 통합 스토리지 기능이 포함된 블록 스토리지를 특징으로 합니다. VNX5200은 최대 125개의 2.5인치 또는 3.5인치 SAS 및 NL-SAS 하드 드라이브와 SSD를 관리할 수 있으며 EMC의 MCx 멀티코어 아키텍처로 구축되었습니다. StorageReview Enterprise Test Lab의 책임자인 Kevin O'Brien은 최근 매사추세츠주 홉킨튼에 있는 EMC 데이터 센터를 방문하여 VNX5200의 벤치마크와 실습 시간을 가졌습니다.
EMC의 VNX5200 스토리지 컨트롤러는 EMC VNX2 오퍼링의 진입점이며 옵션 파일 및 통합 스토리지 기능이 포함된 블록 스토리지를 특징으로 합니다. VNX5200은 최대 125개의 2.5인치 또는 3.5인치 SAS 및 NL-SAS 하드 드라이브와 SSD를 관리할 수 있으며 EMC의 MCx 멀티코어 아키텍처로 구축되었습니다. StorageReview Enterprise Test Lab의 책임자인 Kevin O'Brien은 최근 매사추세츠주 홉킨튼에 있는 EMC 데이터 센터를 방문하여 VNX5200의 벤치마크와 실습 시간을 가졌습니다.
In 작년 XNUMX월, EMC는 하드웨어가 크게 향상되어 널리 사용되는 VNX 통합 스토리지 어레이 제품군을 업데이트했습니다. 그 결과 VNX2 라인업이 탄생했습니다. PCIe 2.0에서 PCIe 3.0으로 이전하고 새로운 MCx 아키텍처(멀티코어 RAID, 멀티코어 캐시 및 멀티코어 FAST Cache 포함)와 같이 향상된 기능을 통해 스토리지 프로세서의 여러 CPU 코어를 더 잘 활용할 수 있습니다.
이러한 향상된 기능 중 다수는 스토리지 관리자가 하이브리드 스토리지 구성으로 계속 이동하는 상황에서 VNX 플랫폼이 플래시를 더 잘 활용할 수 있도록 하는 데 중점을 두고 있습니다. EMC에 따르면 현재 VNX70 시스템의 거의 2%가 하이브리드 플래시 구성으로 출하되고 있으며, 이러한 변화로 인해 캐싱 및 계층화를 위한 EMC의 FAST 제품군의 역할이 더욱 중요해졌습니다.
더 작은 동안 이전에 검토한 VNXe3200 또한 VNX2 기술로 업데이트된 VNX5200은 본사에 기본 스토리지 시스템이 필요한 중간 시장 고객과 VNXe3200이 처리할 수 있는 것보다 더 강력한 원격/지사 요구 사항을 위해 설계되었습니다. VNX5200은 블록, 파일 또는 통합 스토리지용으로 구성할 수 있으며 3U, 25x 2.5인치 EMC DPE(Disk Processor Enclosure) 섀시를 활용합니다. VNX5200의 스토리지 프로세서 유닛은 1.2GHz, 5코어 Xeon E16 프로세서와 125GB RAM을 통합하고 FC, iSCSI, FCoE 및 NAS 연결을 통해 최대 XNUMX개의 드라이브를 관리할 수 있습니다.
또한 VNX2 제품군에는 현재 VNXe3200 및 VNX5200보다 더 큰 규모를 위해 설계된 XNUMX개의 스토리지 시스템이 포함되어 있습니다.
- VNX5400: 1개 드라이브에서 최대 250PB의 원시 용량, 최대 1TB의 SSD FAST Cache, 어레이당 최대 8개의 UltraFlex I/O 모듈
- VNX5600: 2개 드라이브에서 최대 500PB의 원시 용량, 최대 2TB의 SSD FAST Cache, 어레이당 최대 10개의 UltraFlex I/O 모듈
- VNX5800: 3개 드라이브에서 최대 750PB의 원시 용량, 최대 3TB의 SSD FAST Cache, 어레이당 최대 10개의 UltraFlex I/O 모듈
- VNX7600: 4개 드라이브에서 최대 1,000PB의 원시 용량, 최대 4.2TB의 SSD FAST Cache, 어레이당 최대 10개의 UltraFlex I/O 모듈
- VNX8000: 6개 드라이브에서 최대 1,500PB의 원시 용량, 최대 4.2TB의 SSD FAST Cache, 어레이당 최대 22개의 UltraFlex I/O 모듈
VNX5200 블록 스토리지는 6Gb SAS 드라이브 토폴로지가 포함된 이중 VNX 스토리지 프로세서로 구동됩니다. VNX2 구축에서는 하나 이상의 Data Mover와 컨트롤러 유닛을 사용하여 NAS 서비스를 제공할 수 있습니다. VNX 시리즈의 다른 제품과 마찬가지로 VNX5200은 Data Mover와 블록 스토리지 프로세서 모두에 UltraFlex I/O 모듈을 사용합니다. VNX5200은 최대 XNUMX개의 Data Mover와 Data Mover당 최대 XNUMX개의 UltraFlex 모듈을 지원합니다.
MCx 멀티코어 기능
VNX는 널리 퍼진 멀티 코어 프로세서 기술보다 앞서 있으며 이전 세대의 플랫폼은 동적 CPU 확장을 활용할 수 있는 기반 위에 구축되지 않았습니다. VNX1 및 CLARiX CX 운영 환경인 FLARE에서는 특정 CPU 코어에서 RAID를 비롯한 서비스를 실행할 수 있었지만 FLARE의 단일 스레드 패러다임은 많은 핵심 기능이 첫 번째 CPU 코어에 바인딩되어 있음을 의미했습니다. 예를 들어 들어오는 모든 I/O 프로세스는 다른 코어에 위임되기 전에 Core 0에서 처리되어 병목 현상 시나리오가 발생합니다.
MCx는 EMC가 수평적 멀티코어 시스템 확장으로 특징지은 것을 구현하여 모든 서비스가 모든 코어에 분산될 수 있도록 합니다. VNX2와 VNXe3200 모두에서 사용할 수 있는 이 새로운 아키텍처에서는 예를 들어 프런트엔드 Fibre Channel 포트를 여러 프로세서 코어에 고르게 분산할 수 있기 때문에 들어오는 입출력 프로세스에 병목 현상이 발생할 가능성이 적습니다. 또한 MCx는 기본 코어 개념을 통해 I/O 코어 선호도를 구현합니다. 프런트엔드 및 백엔드의 모든 포트에는 기본 코어와 대체 코어 할당이 모두 있습니다. 시스템 서비스는 코어 간에 캐시와 컨텍스트를 교환하지 않기 위해 요청이 시작된 동일한 프런트 엔드 코어로 요청을 호스트합니다.
새로운 MCx 아키텍처의 주요 이점은 호스트가 어레이의 두 스토리지 프로세서를 통해 동시에 LUN에 액세스할 수 있도록 하는 대칭 활성/활성 LUN을 지원한다는 점입니다. FLARE의 비대칭 구현과 달리 대칭 활성/활성 모드에서는 운영 스토리지 프로세서로 업데이트를 보낼 필요 없이 두 SP가 모두 LUN에 직접 쓸 수 있습니다.
현재 VNX2 시스템은 클래식 RAID 그룹 LUN에 대해 대칭형 활성/활성 액세스를 지원하지만 대신 비대칭 활성/활성 모드를 사용할 수 있는 전용 풀 LUN에 대해서는 활성/활성을 지원하지 않습니다. 프라이빗 풀 LUN 또는 "클래식 LUN"은 현재 VNX RecoverPoint Splitter 이외의 데이터 서비스를 사용하는 경우 대칭 활성/활성 모드를 사용할 수 없습니다.
MCx 아키텍처와 플래시 미디어 스토리지 간의 VNX5200의 강력한 시너지 효과 중 하나는 관리자가 플래시 스토리지 미디어를 활용하여 이기종 드라이브 전체에서 어레이 성능을 높일 수 있는 EMC FAST Suite에 대한 시스템 지원입니다. FAST Suite는 플래시를 사용하여 스토리지 성능을 가속화하는 두 가지 접근 방식(캐싱 및 계층화)을 하나의 통합 솔루션으로 결합합니다. FAST Suite에 대한 VNX2 업데이트에는 XNUMX배 향상된 계층화 세분성과 새로운 eMLC 플래시 드라이브 지원이 포함됩니다.
VNX4.2의 최대 캐시 크기 제한은 5200GB이지만 VNX FAST Cache는 최대 600TB의 SSD 스토리지를 활용하여 사용량이 많은 데이터를 처리하고 워크로드 급증에 동적으로 조정할 수 있습니다. 데이터가 오래되고 시간이 지남에 따라 사용률이 낮아지면 FAST VP는 관리자가 정의한 정책에 따라 데이터를 고성능 드라이브에서 대용량 드라이브로 256MB 단위로 계층화합니다.
EMC VNX5200 사양
- 어레이 인클로저: 3U 디스크 프로세서 인클로저
- 드라이브 인클로저:
- 2.5인치 SAS/플래시(2U), 25개 드라이브
- 3.5인치 SAS/플래시(3U), 15개 드라이브
- 최대 SAN 호스트: 1,024
- 최소/최대 드라이브: 4/125
- 최대 FAST 캐시: 600GB
- 어레이당 CPU/메모리: Intel Xeon E2-5 2600코어 4GHz/1.2GB 32개
- RAID: 0/1/10/3/5/6
- 최대 원시 용량: 500TB
- 프로토콜: FC, FCoE, NFS, CIFS, iSCSI,
- 스토리지 유형: 통합, SAN, NAS, 객체
- 드라이브 유형: 플래시 SSD, SAS, NL-SAS
- 용량 최적화: 씬 프로비저닝, 블록 중복 제거, 블록 압축, 파일 수준 중복 제거 및 압축
- 성능: MCx, FAST VP, FAST Cache
- 관리: EMC Unisphere
- 가상화 지원: VMware vSphere, VMware Horizon View, Microsoft Hyper-V, Citrix XenDesktop
- 어레이당 최대 블록 UltraFlex I/O 모듈: 6
- 어레이당 최대 총 포트 수: 28
- 어레이당 2/4/8Gb/s FC 최대 포트 수: 24
- 어레이당 1GBASE-T iSCSI 최대 총 포트 수: 16
- 어레이당 최대 FCoE 포트: 12
- 어레이당 10GbE iSCSI 최대 총 포트 수: 12
- 제어 스테이션: 1 또는 2
- 최대 지원 LUN: 1,000(풀링됨)
- 최대 LUN 크기: 256TB(가상 풀 LUN)
- 최대 파일 시스템 크기: 16TB
- 파일 데이터 이동기 수: 1, 2 또는 3
- Data Mover당 CPU/메모리: Intel Xeon 5600/6GB
- 블록용 UltraFlex I/O 확장 모듈:
- 4포트 2/4/8Gb/s 파이버 채널
- 4포트 1Gb/s(구리) iSCSI
- 2포트 10Gb/s(광) iSCSI
- 2포트 10GBASE-T(구리) iSCSI
- 2포트 10GbE(광 또는 쌍축) FCoE
- 파일용 UltraFlex I/O 확장 모듈:
- 4포트 1GBASE-T
- 4포트 1GBASE-T 및 1GbE(광)
- 2포트 10GbE(광)
- 2포트 10GBASE-T(구리)
설계 및 구축
VNX 용어에서 스토리지 구축은 여러 통합 랙 구성 요소로 구성됩니다. 컨트롤러 구성 요소는 드라이브 베이가 통합되지 않은 SPE(Storage-Processor Enclosure)이거나 이 VNX5200과 마찬가지로 내부 스토리지를 제공하는 DPE(Disk-Processor Enclosure)입니다. VNX DAE(Disk Array Enclosure)를 사용하여 추가 스토리지 용량을 통합할 수 있습니다.
SPE는 이중 SAS 모듈, 이중 전원 공급 장치 및 팬 팩 외에 VNX 스토리지 프로세서를 통합합니다. DPE(디스크 프로세서 엔클로저)에는 엔클로저, 디스크 모듈, 스토리지 프로세서, 이중 전원 공급 장치 및 15개의 팬 팩이 포함됩니다. 이중 SAS 링크 제어 카드 및 이중 전원 공급 장치가 있는 3.5개의 25인치, 2.5개의 60인치 또는 3.5개의 XNUMX인치 드라이브 베이를 사용하여 DAE를 사용하여 추가 스토리지를 추가할 수 있습니다.
스토리지 프로세서 엔클로저이든 디스크 프로세서 엔클로저이든 VNX 스토리지 프로세서는 외부 호스트에 대한 데이터 액세스를 제공하고 스토리지의 블록 스토리지를 VNX2 파일 스토리지 기능(옵션)과 연결합니다. VNX5200은 다양한 EMC의 UltraFlex IO 모듈을 활용하여 연결을 맞춤화할 수 있습니다.
UltraFlex 블록 IO 모듈 옵션:
- HBA 또는 FC 스위치에 연결하기 위한 광학 SFP 및 OM8/OM2 케이블 연결이 있는 3포트 XNUMXGb/s 파이버 채널 모듈.
- TCP 오프로드 엔진과 1개의 1GBaseT Cat6 포트가 있는 XNUMX포트 XNUMXGb/s iSCSI 모듈.
- TCP 오프로드 엔진, 10개의 10Gb/s 이더넷 포트, SFP+ 광학 연결 또는 이더넷 스위치에 대한 twinax 구리 연결이 있는 XNUMX포트 XNUMXGb/s Opt iSCSI 모듈.
- TCP 오프로드 엔진과 10개의 10GBaseT 이더넷 포트가 있는 XNUMX포트 XNUMXGBaseT iSCSI 모듈
- 10개의 10Gb/s 이더넷 포트와 SFP+ 광학 연결 또는 twinax 구리 연결이 있는 XNUMX포트 XNUMXGbE FCoE 모듈
- VNX Block Storage Processors에 대한 백엔드 연결을 위한 6포트 2.0Gb/s SAS V6 모듈. 각 SAS 포트에는 24Gb/s 공칭 처리량을 위해 3Gb/s에서 포트당 4개의 레인이 있습니다. 이 모듈은 PCIe 4 연결용으로 설계되었으며 6x2x8 또는 6xXNUMXxXNUMX으로 구성할 수 있습니다.
VNX5200을 파일 스토리지 또는 유니파이드 스토리지용으로 구성하려면 하나 이상의 Data Mover 유닛과 함께 사용해야 합니다. VNX DME(Data Mover Enclosure)는 크기가 2U이고 Data Mover를 수용합니다. Data Mover는 Data Mover당 2.13GB RAM이 포함된 5600GHz, 6코어 Xeon 256 프로세서를 사용하고 Data Mover당 최대 XNUMXTB의 스토리지 용량을 관리할 수 있습니다. Data Mover 엔클로저는 XNUMX개, XNUMX개 또는 XNUMX개의 Data Mover와 함께 작동할 수 있습니다.
Control Station은 크기가 1U이며 페일오버 제어를 포함하여 Data Mover에 관리 기능을 제공합니다. 이중화를 위해 보조 Control Station과 함께 Control Station을 구축할 수 있습니다. UltraFlex 파일 IO 모듈 옵션에는 다음이 포함됩니다.
- Cat1 케이블용 RJ-45 포트 6개가 있는 XNUMX포트 XNUMXGBase-T IP 모듈
- 10개의 10Gb/s 이더넷 포트가 있는 XNUMX포트 XNUMXGbE Opt IP 모듈 및 이더넷 스위치에 대한 SFP+ 광학 연결 또는 Twinax 구리 연결 선택
- 이더넷 스위치에 구리로 연결된 10포트 XNUMXGBase-T IP 모듈
- 전용 어레이에 직접 연결하고 NDMP 테이프 연결을 제공하기 위한 광 SFP 및 OM8/OM2 케이블 연결이 있는 3포트 XNUMXGb/s 파이버 채널 모듈
관리 및 데이터 서비스
VNX 제품군은 EMC의 Unisphere 관리 소프트웨어를 사용합니다. Unisphere에 대한 전반적인 인상은 일반 IT 담당자가 액세스할 수 있는 깨끗하고 체계적으로 구성된 인터페이스를 제공하는 동시에 숙련된 스토리지 관리자가 시스템의 전체 기능에 액세스할 수 있다는 것입니다.
Unisphere는 (1) 지정된 시간이 지난 후 또는 (2) 스냅샷 스토리지 공간이 스토리지 용량의 지정된 비율을 초과하면 스냅샷을 삭제하는 자동 삭제 정책에 대한 구성 옵션이 포함된 스냅샷 기능을 통합합니다. VNX 스냅샷은 EMC의 씬 프로비저닝 및 쓰기 시 리디렉션 기술을 활용하여 저장된 스냅샷의 속도를 높이고 스토리지 요구 사항을 줄일 수 있습니다.
VNX는 상대적으로 사용률이 낮은 LUN 및 파일용으로 설계된 블록 및 파일 압축 알고리즘을 사용하므로 성능 오버헤드를 줄이면서 압축 및 중복 제거 작업을 백그라운드에서 수행할 수 있습니다. VNX의 고정 블록 중복 제거는 가상 머신, 가상 데스크톱, 테스트/개발 환경과 같은 시나리오를 위해 8KB 단위로 구축되어 중복 제거를 통해 많은 이점을 얻을 수 있습니다. 풀 LUN 수준에서 중복 제거를 설정할 수 있으며 씬, 일반 및 중복 제거된 LUN을 단일 풀에 저장할 수 있습니다.
Unisphere Central은 최대 수천 개의 VNX 및 VNXe 시스템(예: 원격 사무실 및 지사에 구축된 시스템)에 대한 중앙 집중식 멀티박스 모니터링을 제공합니다. Unisphere 제품군에는 문제 진단, 추세 분석 및 용량 계획을 용이하게 하기 위해 스토리지 활용도 및 워크로드 패턴을 위한 VNX 모니터링 및 보고 소프트웨어도 포함되어 있습니다.
가상화된 환경에서 VNX5200은 프로비저닝, 관리, 복제 및 중복 제거를 위해 EMC의 VMware vSphere 5용 Virtual Storage Integrator를 구축할 수 있습니다. VMware의 경우 VNX5200은 VAAI 및 VASA를 위한 API 통합을 제공하며 Hyper-V 환경에서 오프로드 데이터 전송 및 파일용 오프로드 사본을 구성할 수 있습니다. EMC Storage Integrator는 Hyper-V 및 SharePoint를 위한 프로비저닝 기능을 제공합니다. EMC Site Recovery Manager 소프트웨어는 재해 복구 상황에서도 페일오버 및 페일백을 관리할 수 있습니다.
VNX2부터 VNX5200까지의 VNX8000 어레이는 드라이브 수준에서 모든 사용자 데이터를 암호화하는 D@RE라는 EMC의 새로운 컨트롤러 기반 유휴 데이터 암호화를 제공합니다. D@RE는 AES 256 암호화를 사용하며 FIPS-140-2 레벨 1 규정 준수에 대한 검증을 보류 중입니다. 새로운 D@RE 지원 VNX 어레이는 암호화 하드웨어와 함께 제공되며, 기존 VNX2 시스템은 D@RE를 지원하고 기존 스토리지를 백그라운드 작업으로 중단 없이 암호화하도록 현장에서 업그레이드할 수 있습니다.
D@RE는 디스크당 고유 키가 있는 일반 데이터 경로 프로토콜을 사용하여 어레이에 기록된 모든 데이터를 암호화합니다. 어떤 이유로든 드라이브가 어레이에서 제거되면 드라이브에 대한 정보를 이해할 수 없습니다. D@RE는 또한 RAID 그룹 또는 스토리지 풀이 삭제될 때 암호화 키가 삭제되기 때문에 암호화 지우기 기능을 통합합니다.
VNX2는 미러링된 쓰기 캐시 기능을 제공합니다. 여기서 각 스토리지 프로세서에는 해당 LUN에 대한 기본 캐시 데이터와 피어 스토리지 프로세서에 대한 캐시의 보조 복제본이 모두 포함됩니다. RAID 레벨 0, 1, 1/0, 5 및 6은 동일한 어레이에 공존할 수 있으며 시스템의 사전 예방적 핫 스페어링 기능은 데이터 보호를 더욱 강화합니다. 이 시스템은 통합 배터리 백업 장치를 사용하여 캐시 디스테이징 및 정전 시 정상적인 종료를 위한 기타 고려 사항을 제공합니다.
로컬 보호는 Unisphere의 시점 스냅샷 기능을 통해 제공되며 무중단 데이터 보호는 RecoverPoint 로컬 복제를 통해 제공됩니다. EMC의 VPLEX를 사용하여 데이터 센터 내부 및 데이터 센터 간에 무중단 가용성을 확장할 수 있습니다. EMC에 따르면 이 회사는 RecoverPoint Continuous Remote Replication 소프트웨어에 대한 영감으로 텔레비전 DVR을 사용했습니다.
Replication Manager와 AppSync는 Data Domain, Avamar, Networker를 비롯한 EMC 백업 및 복구 솔루션을 통해 애플리케이션 정합성이 보장되는 보호 기능을 제공하여 백업 윈도우와 복구 시간을 단축합니다.
배경 및 저장 매체 테스트
우리는 실험실 환경의 인벤토리, 랩의 네트워킹 기능 개요, 관리자 및 장비 획득 책임자가 게시된 결과를 달성한 조건을 공정하게 측정할 수 있도록 테스트 프로토콜에 대한 기타 세부 정보. 우리의 독립성을 유지하기 위해 우리의 리뷰는 우리가 테스트하는 장비 제조업체에서 비용을 지불하거나 관리하지 않습니다.
EMC VNX5200 검토는 우리가 일반적으로 장비를 평가하는 방식과 비교할 때 다소 독특한 테스트 접근 방식으로 두드러집니다. 우리의 표준 검토 프로세스에서 공급업체는 우리에게 플랫폼을 배송하고 우리는 성능 벤치마크를 위해 고정된 테스트 플랫폼에 연결합니다. VNX5200의 경우 초기 설정뿐만 아니라 크기와 복잡성으로 인해 이러한 접근 방식을 변경하고 검토자와 장비를 EMC 연구실로 이동하게 되었습니다. EMC는 iSCSI 및 FC 테스트에 필요한 장비와 옵션을 갖춘 VNX5200을 준비했습니다. EMC는 자체 전용 8Gb FC 스위치를 제공했고 이더넷 연결을 위해 Mellanox 10/40Gb SX1024 스위치 중 하나를 가져왔습니다. 시스템에 스트레스를 주기 위해 기존 연구실 환경에서 사용하는 하드웨어 사양을 능가하는 EchoStreams OSS1A-1U 서버를 활용했습니다.
에코스트림 OSS1A-1U 명세서:
- 2x Intel Xeon E5-2697 v2(2.7GHz, 30MB 캐시, 12코어)
- 인텔 C602A 칩셋
- 메모리 – 16GB(2GB 8개) 1333MHz DDR3 등록 RDIMM
- 윈도우 서버 표준 2012 R2
- 부팅 SSD: 100GB Micron RealSSD P400e
- 2x Mellanox ConnectX-3 듀얼 포트 10GbE NIC
- 2x Emulex LightPulse LPe16002 Gen 5 파이버 채널(8GFC, 16GFC) PCIe 3.0 듀얼 포트 HBA
VNX5200에 대한 평가에서는 EMC 고객이 운영 환경에서 VNX2 시스템을 구축하는 방식을 반영하는 8가지 구성에 대한 합성 벤치마크에서 성능을 비교합니다. 각 구성은 크기가 25GB인 XNUMX개의 LUN을 활용했습니다.
- 파이버 채널 연결이 있는 SSD 미디어로 구성된 RAID10 어레이
- iSCSI 연결이 있는 SSD 미디어로 구성된 RAID10 어레이
- 파이버 채널 연결이 있는 6k HDD 미디어로 구성된 RAID7 어레이
- 파이버 채널 연결이 있는 5k HDD 미디어로 구성된 RAID10 어레이
- 파이버 채널 연결이 있는 5k HDD 미디어로 구성된 RAID15 어레이.
각 구성에는 24개의 드라이브가 통합되어 있으며 프로덕션 환경에서 배포할 때 가장 일반적인 RAID 구성을 사용했습니다.
엔터프라이즈 종합 워크로드 분석
각각의 작업을 시작하기 전에 fio 합성 벤치마크, 우리 연구실은 스레드당 16개의 미해결 대기열이 있는 16개 스레드의 과도한 로드 하에서 장치를 정상 상태로 사전 조정합니다. 그런 다음 저장소는 여러 스레드/대기열 깊이 프로필을 사용하여 설정된 간격으로 테스트되어 사용량이 적은 경우와 사용량이 많은 경우의 성능을 보여줍니다.
사전 조건화 및 기본 정상 상태 테스트:
- 처리량(집계된 읽기+쓰기 IOPS)
- 평균 대기 시간(읽기+쓰기 대기 시간을 함께 평균화)
- 최대 대기 시간(최대 읽기 또는 쓰기 대기 시간)
- 대기 시간 표준 편차(함께 평균화된 읽기+쓰기 표준 편차)
이 합성 분석은 제조업체 사양 및 벤치마크에서 널리 사용되는 네 가지 프로필을 통합합니다.
- 4k 랜덤 – 100% 읽기 및 100% 쓰기
- 8k 순차 – 100% 읽기 및 100% 쓰기
- 8k 랜덤 – 70% 읽기/30% 쓰기
- 128k 순차 – 100% 읽기 및 100% 쓰기
4k 워크로드에 대한 사전 조정을 마친 후 기본 테스트를 통해 VNX5200을 실행했습니다. 따라서 SSD로 구성하고 파이버 채널을 통해 액세스할 때 80,472 IOPS 읽기 및 33,527 IOPS 쓰기를 게시했습니다. RAID10에서 동일한 SSD를 사용하여(이번에는 iSCSI 블록 레벨 테스트 사용) VNX5200은 37,421 IOPS 읽기 및 22,309 IOPS 쓰기를 달성했습니다. 파이버 채널 연결을 사용하여 RAID15에서 5K HDD로 전환하면 12,054 IOPS 읽기 및 3,148 IOPS 쓰기가 나타났으며 10K HDD 구성은 7,688 IOPS 읽기 및 2,835 IOPS 쓰기를 기록했습니다. 동일한 연결 유형의 RAID7 구성에서 6K HDD를 사용하는 경우 VNX5200은 4,390 IOPS 읽기 및 1,068 IOPS 쓰기를 기록했습니다.
결과는 평균 대기 시간에서 거의 동일했습니다. RAID10에서 SSD로 구성하고 파이버 채널 연결을 사용할 때 3.18ms 읽기 및 7.63ms 쓰기를 나타냈습니다. iSCSI 블록 레벨 테스트에서 동일한 SSD를 사용하여 VNX5200은 6.84ms 읽기 및 11.47me 쓰기를 자랑했습니다. 파이버 채널 연결을 사용하여 RAID15에서 5K HDD로 전환하면 평균 대기 시간에서 21.23ms 읽기 및 81.31ms 쓰기가 나타났으며 10K HDD 구성은 33.29ms 읽기 및 90.31ms 쓰기를 나타냈습니다. 동일한 연결 유형의 RAID7 구성에서 6K HDD로 전환할 때 VNX5200은 58.29ms 읽기 및 239.64ms 쓰기를 기록했습니다.
다음으로 최대 대기 시간 벤치마크로 이동합니다. RAID10에서 SSD로 구성하고 iSCSI 블록 수준 테스트를 사용했을 때 197ms 읽기 및 421.8ms 쓰기를 보여주었습니다. 이번에는 Fibre Channel 연결을 통해 동일한 SSD를 사용했지만 VNX5200은 202.1ms 읽기 및 429.2ms 쓰기를 자랑했습니다. 파이버 채널 연결을 사용하여 RAID15에서 5K HDD로 전환하면 최대 대기 시간 동안 1,311.3ms 읽기 및 1,199.2ms 쓰기가 기록된 반면, 10K HDD 구성은 2,687.8ms 읽기 및 2,228.1ms 쓰기를 기록했습니다. 동일한 연결 유형의 RAID7 구성에서 6K HDD로 전환할 때 VNX5200은 3,444.8ms 읽기 및 2,588.4ms 쓰기를 기록했습니다.
마지막 4K 벤치마크는 표준 편차로, VNX5200의 성능. 당사의 iSCSI 블록 수준 테스트를 사용하여 RAID10에서 SSD로 구성할 때, VNX5200 3.30ms 읽기 및 12.06ms 쓰기를 게시했습니다. 동일한 SSD를 파이버 채널 연결과 함께 사용하면 9.20ms 읽기 및 14.32ms 쓰기가 나타납니다. 파이버 채널 연결이 있는 RAID15에서 5K HDD로 전환하면 25.93ms 읽기 및 120.53ms 쓰기가 기록된 반면 10K HDD 구성은 35.37ms 읽기 및 175.66ms 쓰기를 기록했습니다. 동일한 연결 유형의 7K HDD RAID6 구성을 사용할 때 VNX5200은 52.75ms 읽기 및 254.55ms 쓰기를 기록했습니다.
다음 벤치마크는 100% 읽기 작업과 100k 전송 크기의 8% 쓰기 작업으로 구성된 순차적 워크로드를 사용합니다. 여기에서 VNX5200은 RAID178,959 Fibre Channel 연결에서 76,022개의 HDD로 구성된 경우 읽기 10 IOPS 및 쓰기 5 IOPS를 기록했습니다. 파이버 채널 연결이 있는 RAID15에서 5K HDD를 사용하면 176,895 IOPS 읽기 및 77,505 IOPS 쓰기가 나타납니다. Fibre Channel 연결을 사용하여 RAID10에서 SSD로 전환하면 169,833 IOPS 읽기 및 74,470 IOPS 쓰기가 기록되었으며, SSD iSCSI 블록 수준 테스트에서는 69,303 IOPS 읽기 및 40,379 IOPS 쓰기가 나타났습니다. Fibre Channel 연결이 있는 RAID7 구성에서 6K HDD를 사용하는 경우 VNX5200은 75,982 IOPS 읽기 및 76,122 IOPS 쓰기를 기록했습니다.
다음 워크로드 시리즈는 최대 8개 스레드 70 대기열까지 30k 읽기(16%) 및 쓰기(16%) 작업의 혼합으로 구성되며 첫 번째는 처리량입니다. Fibre Channel 연결을 사용하여 RAID10에서 SSD로 구성한 경우 VNX5200은 다음과 같은 범위를 게시했습니다. 8,673 IOPS 에 41,866T/16Q까지 16 IOPS. iSCSI 블록 수준 테스트 중에 동일한 SSD를 사용하면 다양한 6,631 IOPS ~ 28,193 IOPS. 파이버 채널 연결을 통해 RAID15에서 5K HDD로 전환하여 다양한 범위를 기록했습니다. 1,204 IOPS and 6,411 IOPS, 10K HDD 구성은 826T/5,113Q까지 16 IOPS 및 16 IOPS를 기록했습니다. 동일한 연결 유형의 7K HDD RAID6 구성을 사용하는 경우 VNX5200은 267~2,467 IOPS 범위를 게시했습니다.
다음으로 평균 대기 시간을 살펴보았습니다. Fibre Channel 연결을 사용하여 RAID10에서 SSD로 구성한 경우 VNX5200은 0.45T/6.11Q 기준 16ms~16ms의 범위를 게시했습니다. iSCSI 블록 수준 테스트 중에 동일한 SSD를 사용하면 0.59ms에서 9.07ms의 범위를 보여줍니다. 파이버 채널 연결이 있는 RAID15에서 5K HDD로 전환하면 3.31ms와 39.89ms의 범위를 기록한 반면, 10K HDD 구성은 처음에 4.83ms, 49.97T/16Q까지 16ms를 기록했습니다. 동일한 연결 유형의 7K HDD RAID6 구성을 사용하는 경우 VNX5200은 14.93ms~103.52ms의 범위를 게시했습니다.
최대 지연 시간 결과를 살펴보면 Fibre Channel 연결을 사용하여 RAID10에서 SSD로 구성했을 때 VNX5200의 범위는 27.85T/174.43Q 기준 16ms~16ms였습니다. iSCSI 블록 수준 테스트 중에 동일한 SSD를 사용하면 최대 대기 시간이 31.78ms~134.48ms 범위로 나타납니다. 파이버 채널 연결이 있는 RAID15에서 5K HDD로 전환하면 108.48ms와 2,303.72ms의 범위를 기록한 반면, 10K HDD 구성은 58.83T/2,355.53Q별로 16ms와 16ms를 기록했습니다. 동일한 연결 유형의 7K HDD RAID6 구성을 사용하는 경우 VNX5200은 최대 지연 시간 범위가 82.74ms~1,338.61ms를 기록했습니다.
다음 워크로드는 8k 70% 읽기 및 30% 쓰기 작업에 대한 표준 편차를 분석합니다. Fibre Channel 연결을 사용하는 RAID10에서 SSD를 사용하는 VNX5200은 0.18T/10.83Q 기준 16ms~16ms의 범위를 게시했습니다. iSCSI 블록 수준 테스트 중에 동일한 SSD를 사용하면 대기 시간 일관성에서 0.21ms ~ 11.54ms의 비슷한 범위를 보여줍니다. 파이버 채널 연결이 있는 RAID15에서 5K HDD로 전환하면 3.48ms에서 56.58ms의 범위를 기록한 반면, 10K HDD 구성은 초기에 2.5ms, 66.44T/16Q까지 16ms를 나타냈습니다. 동일한 연결 유형의 7K HDD RAID6 구성을 사용할 때 VNX5200은 7.98ms~110.68ms의 표준 편차 범위를 게시했습니다.
최종 합성 벤치마크는 순차적인 128k 전송과 100% 읽기 및 100% 쓰기 작업의 워크로드를 사용했습니다. 이 시나리오에서 VNX5200은 iSCSI 블록 레벨 테스트를 사용하여 SSD로 구성했을 때 2.84GB/s 읽기 및 1.26GB/s 쓰기를 기록했습니다. 파이버 채널 연결이 있는 RAID15에서 5K HDD를 사용하면 2.48GB/s 읽기 및 2.33GB/s 쓰기가 표시됩니다. RAID10에서 SSD로 다시 전환하면(이번에는 파이버 채널 연결 사용) 2.48GB/s 읽기 및 3.06GB/s 쓰기를 기록했습니다. Fibre Channel 연결이 있는 RAID7 구성에서 6K HDD를 사용하는 경우 VNX5200은 2.47GB/s 읽기 및 2.68GB/s 쓰기를 기록한 반면 10K HDD 구성은 2.47GB/s 읽기 및 3.22GB/s 쓰기를 기록했습니다.
결론
EMC의 VNX 에코시스템은 엔터프라이즈 스토리지 시장에서 확고하게 자리 잡았지만 VNX2는 프로세서, 플래시 및 네트워킹 기술의 발전을 최대한 활용하기 위해 VNX 아키텍처를 전면 개편하려는 회사의 의지를 반영합니다. VNXe3200과 유사, 소규모 구축을 지향하는 VNX5200은 또한 EMC가 VNX 제품군의 대형 시스템에 대한 비용을 정당화할 수는 없지만 모든 엔터프라이즈 이점을 원하는 Midmarket 회사 및 원격/지사 사무실에 관심을 기울이고 있음을 보여줍니다. .
FAST Suite와 함께 사용되는 VNX5200은 플래시 캐싱 및 계층화를 동시에 제공할 수 있으며, 이는 EMC 동종 업체가 경쟁하기 어려운 조합입니다. 테스트에서 우리는 스토리지의 공통 계층과 구성을 분석하여 사용자가 5200에서 기대할 수 있는 것을 제한된 테스트 제품군으로 설명했습니다. 테스트는 최대 SSD의 7K HDD를 대상으로 시스템의 유연성, 제공되는 용량, 성능, 또는 다양한 인터페이스 옵션을 통해 둘 다.
궁극적으로 VNX2 플랫폼은 발생하는 거의 모든 것을 처리할 수 있습니다. 매일매일 EMC 거래를 성사시키는 것은 이러한 유연성입니다. 스토리지 옵션, IO 모듈 및 NAS 지원의 조합을 고려할 때 시스템은 조직에 필요한 거의 모든 것을 관리할 수 있습니다. 물론 여기에서 테스트한 5200을 넘어서는 사용 사례가 있습니다. VNX 제품군은 더 많은 컴퓨팅 성능, 플래시 할당량 또는 Disk Shelf를 통해 이러한 요구 사항을 해결하기 위해 상당히 확장(VNXe3200의 경우 일부 축소)됩니다.
장점
- UltraFlex I/O 모듈을 통한 다양한 연결 옵션
- 블록, 파일 및 통합 스토리지 시나리오를 지원하는 구성
- 관리 툴 및 타사 통합으로 구성된 강력한 VNX 에코시스템에 대한 액세스
단점
- FAST Cache 최대 600GB
히프 라인
EMC VNX5200은 플래시 스토리지, 멀티 코어 CPU 및 최신 데이터 센터 네트워크 환경을 활용하도록 설계된 새로운 통합 스토리지 어레이의 핵심 항목입니다. 경제성, 구성의 유연성, VNX2 관리 소프트웨어 및 타사 통합에 대한 액세스는 Midmarket을 위한 강력한 전체 패키지를 구성합니다.