X-IO는 하드 드라이브를 보장하는 방법을 알아내어 엔터프라이즈 SAN 스토리지에서 이름을 올렸고 하이브리드 구성의 경우 SSD는 보증된 3년 기간 동안 서비스를 받을 필요가 없었습니다. 이 목표를 달성하는 데 도움이 되도록 X-IO는 완전 이중화 섀시에 삽입되고 고정되는 트윈 DataPac을 사용하여 "설정하고 잊어버리는" 스타일의 스토리지를 제공합니다. 올해 XNUMX월 X-IO는 올 플래시 구성의 새로운 시리즈와 업데이트된 XNUMX세대 아키텍처(GXNUMX)와 함께 하드 드라이브 및 하이브리드 어레이 제품군에 추가되었습니다. 그만큼 ISE 800 G3 시리즈 의 전체 플래시 어레이에는 원시 용량 6.4TB~51.2TB 범위의 세 가지 모델이 포함됩니다. 각각은 최대 400,000 IOPS의 성능, 5GB/s 대역폭 및 보다 강력한 QoS 엔진 중 하나와 함께 서비스 호출 빈도를 크게 줄일 수 있다는 약속을 제공합니다.
X-IO는 하드 드라이브를 보장하는 방법을 알아내어 엔터프라이즈 SAN 스토리지에서 이름을 올렸고 하이브리드 구성의 경우 SSD는 보증된 3년 기간 동안 서비스를 받을 필요가 없었습니다. 이 목표를 달성하는 데 도움이 되도록 X-IO는 완전 이중화 섀시에 삽입되고 고정되는 트윈 DataPac을 사용하여 "설정하고 잊어버리는" 스타일의 스토리지를 제공합니다. 올해 XNUMX월 X-IO는 올 플래시 구성의 새로운 시리즈와 업데이트된 XNUMX세대 아키텍처(GXNUMX)와 함께 하드 드라이브 및 하이브리드 어레이 제품군에 추가되었습니다. 그만큼 ISE 800 G3 시리즈 의 전체 플래시 어레이에는 원시 용량 6.4TB~51.2TB 범위의 세 가지 모델이 포함됩니다. 각각은 최대 400,000 IOPS의 성능, 5GB/s 대역폭 및 보다 강력한 QoS 엔진 중 하나와 함께 서비스 호출 빈도를 크게 줄일 수 있다는 약속을 제공합니다.
X-IO는 이 시점에서 많은 고객이 XNUMX년 보증 기간에 도달할 만큼 충분히 오래 사용되어 관리의 단순성이라는 핵심 메시지를 적어도 어느 정도는 검증했습니다. 하지만 올플래시 구성에서는 문제가 약간 다릅니다. X-IO는 어레이 수준에서 웨어 레벨링 개념을 도입하여 내구성에 대한 우려를 완화했습니다. 이것은 본질적으로 시스템 수준에서 각 SSD의 상태를 관리하여 드라이브가 상대적으로 동일한 방식으로 기록되도록 합니다. 시스템이 마모를 관리하므로 최종 사용자는 개별 드라이브에 대해 걱정할 필요가 없습니다. 실제로 X-IO는 GUI를 통해 드라이브를 노출하지도 않습니다. 사용자는 사용 가능한 풀에서 분할된 볼륨만 관리합니다.
X-IO는 올플래시 어레이 공간에서 QoS를 제공하는 몇 안 되는 제품 중 하나입니다. ISE Manager 내에서 관리자는 각 LUN에 대한 최소, 최대 및 버스트 IOPS 기능을 지정할 수 있습니다. 이 프로세스는 몇 번의 클릭만으로 규칙이 자동으로 적용됩니다. 이를 통해 비즈니스 크리티컬 볼륨은 시끄러운 이웃에 대해 걱정할 필요 없이 성능을 보장할 수 있습니다. 또한 ISE 800 시리즈는 씬 프로비저닝과 Cinder 드라이버를 통한 VMware VASA, vSphere Web Client, vCOP 및 OpenStack과의 통합을 지원합니다.
이 검토는 동일한 섀시에서 860 DataPac을 사용하여 수집된 제한된 데이터 하위 집합과 함께 ISE 3 G820을 중심으로 합니다. ISE 800 시리즈 G3 올플래시 어레이는 현재 출하 중이며 정가는 ISE 124,900이 $820, ISE 320,500이 $850, ISE 575,000이 $860입니다.
X-IO Technologies ISE 800 시리즈 G3 사양
- 생산 능력
- ISE 820 G3
- RAID 이전: 6.4TB(DataPac당 20x200GB SSD)
- RAID 10 용량: 2.7TB
- RAID 5 용량: 4.3TB
- ISE 850 G3(DataPac당 10×1.6TB SSD)
- RAID 전: 25.6TB
- RAID 10 용량: 11.4TB
- RAID 5 용량: 18.3TB
- ISE 860 G3(DataPac당 20×1.6TB SSD)
- â € <RAID 전: 51.2TB
- RAID 10 용량: 22.9TB
- RAID 5 용량: 36.6TB
- ISE 820 G3
- 2.2GHz, 6코어 Intel CPU, 컨트롤러당 16GB DRAM
- 최대 용량의 성능
- 최대 400,000 IOPS
- 최대 5GB/s 대역폭
- ISE 지능형 캐싱 알고리즘은 512B에서 1MB 사이의 I/O 크기를 최적화합니다.
- 호스트 연결
- 8Gb 파이버 채널 – SFP 포트 8개(SAN 및 DAS 연결 모두 지원)
- Wake-on-LAN이 있는 1GbE 관리 포트
- 기능
- 액티브-액티브 동기식 미러링
- 씬 프로비저닝
- QoS를
- ReST 웹 서비스 API
- 출력
- 일반 600W, 최대 700W
- 전압 100-240VAC, 47-63Hz
- 6.6V에서 전류 110A, 3.6V에서 208A
- 방열(최대) 2400BTU/시간
- 물리적 통계
- 5.2"(13.2cm) 높이 x 17.5"(44.45cm) 너비 x 28.5"(72.8cm) 깊이
- DataPac 제외 72파운드(32.9kg)
X-IO 기술 ISE 860 G3 설계 및 구축
이전 버전의 ISE와 마찬가지로 장치의 전원을 켤 때 삽입된 다음 제자리에 고정되는 트윈 전면 로드 DataPac으로 디자인이 강조됩니다. 각 800 시리즈 모델은 동일한 섀시와 컨트롤러를 사용합니다. 차별화 요소는 내부에 있는 DataPac 및 SSD의 용량입니다. 또한 장치 전면에는 예기치 않은 전원 손실이 발생할 경우 비휘발성 저장소에 대한 전송 중 쓰기를 플러시할 수 있을 만큼 충분히 오래 유지되도록 설계된 두 개의 슈퍼 커패시터 팩이 있습니다. 전원이 다시 온라인 상태가 되면 이 데이터가 기본 스토리지 풀에 기록됩니다. 860의 SAS 백플레인은 올플래시 구성의 IO 기능을 더 잘 활용할 수 있도록 향상되었습니다.
장치 후면에는 중복 전원 공급 장치와 두 개의 컨트롤러가 있습니다. 각 컨트롤러는 2.2GB DRAM이 내장된 6GHz, 16코어 Intel CPU로 구동됩니다. 각 컨트롤러에 있는 8개의 1Gb 파이버 채널 포트 외에도 관리 XNUMXGbE 포트, 콘솔 포트, XNUMX개의 USB 슬롯 및 SAS 포트도 있습니다.
X-IO 기술 ISE 860 G3 설정 및 구성
ISE Manager Suite는 Citrix, Linux, Microsoft 및 VMware와 통합되어 ISE를 매우 간단하게 관리할 수 있는 환경을 만듭니다. 실제로 X-IO는 ISE를 배포하고 관리하기 위해 교육을 받은 스토리지 관리자가 될 필요가 없다고 말합니다. 우리는 ISE Manager Suite를 VMware vCenter와 통합했습니다. 왼쪽에서 관리자는 SAN 그룹, 성능 어댑터 및 로그 수집 중에서 선택할 수 있습니다. SAN 그룹에는 Server View, Storage View, Physical View, ActiveWatch View, Performance View, Logs View, CloudStack 및 X-Volume을 비롯한 몇 가지 추가 탭이 있습니다.
물리적 보기를 통해 사용자는 어레이의 여러 일반 속성을 확인할 수 있습니다. 왼쪽 아래로 실행하면 시스템 상태를 확인할 수 있습니다. 사용자는 DataPac을 확인할 수 있습니다. 확인할 수 있는 측면에는 작동 여부, 위치, 유형(이 경우 플래시) 및 속한 풀이 포함됩니다.
Physical View를 통해 스토리지 풀을 체크인할 수도 있습니다. 사용 가능한 플래시 양, 풀에 있는 DataPac(이 경우 둘 다), 여유 용량 및 총 용량과 같은 세부 정보를 표시합니다.
Storage View에서 사용자는 다양한 스토리지 풀, 크기, 풀이 고정된 RAID 구성, 설정 성능 최대값 및 최소값을 볼 수 있습니다.
성능 보기를 통해 관리자는 실제로 성능을 실시간으로 추적할 수 있습니다. 성능을 쉽게 추적할 수 있습니다. 예를 들어 SQL 워크로드가 시작되는 전체 측정은 아래에서 볼 수 있습니다. 데이터가 호스트 DRAM으로 이동함에 따라 각 로그 쓰기에 대해 큰 쓰기 버스트가 표시되지만 읽기는 점점 줄어듭니다.
16개의 VM이 어레이를 망치는 가상화된 Sysbench 테스트를 시작할 때 두 컨트롤러 모두에 많은 읽기 및 쓰기 혼합이 발생하는 것을 볼 수 있습니다.
16VM Sysbench 테스트가 평준화되면 어레이가 안정된 상태 조건에 도달하는 것을 볼 수 있습니다.
애플리케이션 성능 분석
The 시스벤치 OLTP 벤치마크는 CentOS 설치 내에서 작동하는 InnoDB 스토리지 엔진을 활용하여 Percona MySQL 위에서 실행됩니다. 기존 SAN 테스트를 최신 하이퍼 컨버지드 장비와 일치시키기 위해 많은 벤치마크를 더 큰 분산 모델로 전환했습니다. 주요 차이점은 베어메탈 서버에서 단일 벤치마크를 실행하는 대신 이제 가상화 환경에서 해당 벤치마크의 여러 인스턴스를 실행한다는 것입니다. 이를 위해 X-IO ISE 1에 4, 8, 12, 16 및 860개의 Sysbench VM(노드당 1-4개)을 배포하고 모두 동시에 작동하는 클러스터에서 표시되는 총 성능을 측정했습니다. 이 테스트는 일반적인 워크로드에서 극한의 워크로드까지 어레이가 얼마나 잘 처리되는지 보여주기 위해 고안되었습니다. 테스트가 절정에 이르렀을 때 우리는 VM이 상주하는 XNUMX개의 ESXi 호스트에 완전한 작업을 수행하고 각 호스트의 DRAM 사용량을 고정합니다.
Dell PowerEdge R730 가상화 Sysbench 4노드 클러스터
- 클러스터의 5GHz용 Intel E2690-3 v249 CPU 2.6개(노드당 12개, 30GHz, XNUMX코어, XNUMXMB 캐시)
- 1TB RAM(노드당 256GB, 16GB x 16 DDR4, CPU당 128GB)
- SD 카드 부팅(Lexar 16GB)
- 4 x Mellanox ConnectX-3 InfiniBand 어댑터(vMotion 및 VM 네트워크용 vSwitch)
- 4 X Emulex 16GB 듀얼 포트 FC HBA
- 4 X Emulex 10GbE 듀얼 포트 NIC
- VMware ESXi vSphere 6.0 / Enterprise Plus 8-CPU
각 Sysbench VM은 92개의 vDisk로 구성됩니다. 하나는 부팅용(~447GB), 하나는 사전 구축된 데이터베이스(~400GB), 세 번째는 테스트할 데이터베이스용(16GB)입니다. 시스템 리소스 관점에서 각 VM을 vCPU 64개, DRAM XNUMXGB로 구성하고 LSI Logic SAS SCSI 컨트롤러를 활용했습니다.
Sysbench 테스트는 평균 TPS(Transactions Per Second), 평균 대기 시간, 최대 99개 스레드 로드에서 평균 32번째 백분위수 대기 시간을 측정합니다.
초당 평균 트랜잭션을 살펴보면 XIO ISE 860은 하나의 가상 머신을 사용할 때 1,762 TPS를 게시했습니다. 구성을 4개의 VM으로 강화했을 때 TPS가 4,424로 크게 향상되었으며 이는 약 150% 증가한 것입니다. 또한 VM 4개에서 VM 8개로(38%), VM 8개에서 VM 12개로(9%) 성능이 향상되었습니다. 그러나 VM을 16개로 늘리면 TPS가 7.4% 약간 감소했습니다. 전체 성능이 16개의 VM으로 떨어졌음에도 불구하고 X-IO ISE 860은 믿을 수 없는 부하에서 해당 수준의 성능을 유지하는 절대 강자임이 입증되었습니다.
평균 대기 시간에서 XIO ISE 860에 추가된 가상 머신이 많을수록 기록된 대기 시간이 더 높다는 것이 분명합니다. ISE 860의 VM 구성 1개(18ms)를 VM 4개(29ms)로 변경했을 때 대기 시간이 61% 증가했습니다. 4개의 VM에서 8개의 VM으로 34.5%의 증가를 보았고 38.5개의 VM에서 8개의 VM으로 이동할 때 12%의 증가를 기록했습니다. 마지막으로 16개의 VM을 사용할 때 대기 시간이 48%로 측정되었습니다. 위의 TPS 차트를 다시 살펴보면 12VM을 사용할 때 최고의 성능을 제공하는 반면 16VM은 TPS를 낮추고 대기 시간을 더 늘리기 시작했다는 점에 유의하십시오.
최악의 MySQL 지연 시간 시나리오(99번째 백분위수 지연 시간) 측면에서 XIO SE 860은 VM 1개에서 VM 4개로, VM 4개에서 VM 8개로 이동하면서 지연 시간이 약간만 증가했습니다. 그러나 12개의 VM을 추가했을 때 대기 시간이 113% 크게 증가했으며 12개의 VM에서 16개의 VM(136%)으로 이동할 때는 훨씬 더 큰 증가를 기록했습니다.
StorageReview의 Microsoft SQL Server OLTP 테스트 프로토콜 복잡한 애플리케이션 환경에서 발견되는 활동을 시뮬레이션하는 온라인 트랜잭션 처리 벤치마크인 TPC-C(Transaction Processing Performance Council의 벤치마크 C) 최신 초안을 사용합니다. TPC-C 벤치마크는 합성 성능 벤치마크보다 데이터베이스 환경에서 스토리지 인프라의 성능 강점과 병목 현상을 측정하는 데 더 가깝습니다.
이 테스트는 Windows Server 2014 R2012 게스트 VM에서 실행되는 SQL Server 2를 사용하며 Dell의 Benchmark Factory for Databases에서 스트레스를 받습니다. 이 벤치마크의 기존 사용은 로컬 또는 공유 스토리지에서 대규모 3,000개 규모의 데이터베이스를 테스트하는 것이었지만, 이 반복에서는 내부의 총 성능을 더 잘 보여주기 위해 X-IO ISE 1,500 전체에 860개의 4개 규모 데이터베이스를 고르게 분산시키는 데 중점을 둡니다. XNUMX노드 VMware 클러스터.
XNUMX세대 SQL Server OLTP Benchmark Factory LoadGen 장비
- Dell PowerEdge R730 VMware ESXi vSphere 가상 클라이언트 호스트(2)
- 클러스터의 5GHz용 Intel E2690-3 v124 CPU 2.6개(노드당 12개, 30GHz, XNUMX코어, XNUMXMB 캐시)
- 512GB RAM(노드당 256GB, 16GB x 16 DDR4, CPU당 128GB)
- SD 카드 부팅(Lexar 16GB)
- 2 x Mellanox ConnectX-3 InfiniBand 어댑터(vMotion 및 VM 네트워크용 vSwitch)
- 2 X Emulex 16GB 듀얼 포트 FC HBA
- 2 X Emulex 10GbE 듀얼 포트 NIC
- VMware ESXi vSphere 6.0 / Enterprise Plus 4-CPU
-
Dell PowerEdge R730 가상화 SQL 4노드 클러스터
- 클러스터의 5GHz용 Intel E2690-3 v249 CPU 2.6개(노드당 12개, 30GHz, XNUMX코어, XNUMXMB 캐시)
- 1TB RAM(노드당 256GB, 16GB x 16 DDR4, CPU당 128GB)
- SD 카드 부팅(Lexar 16GB)
- 4 x Mellanox ConnectX-3 InfiniBand 어댑터(vMotion 및 VM 네트워크용 vSwitch)
- 4 X Emulex 16GB 듀얼 포트 FC HBA
- 4 X Emulex 10GbE 듀얼 포트 NIC
- VMware ESXi vSphere 6.0 / Enterprise Plus 8-CPU
각 SQL Server VM은 100개의 vDisk(부팅용 500GB 및 데이터베이스 및 로그 파일용 16GB)로 구성됩니다. 시스템 리소스 관점에서 각 VM을 vCPU 64개, DRAM XNUMXGB로 구성하고 LSI Logic SAS SCSI 컨트롤러를 활용했습니다.
SQL Server 테스트에서 벤치마킹된 X-IO ISE 860은 총 평균 15,000 TPS를 자랑했기 때문에 860명의 가상 사용자를 처리할 수 있는 충분한 자격을 갖추었습니다.
가상 사용자의 동일한 워크로드로 평균 대기 시간을 볼 때 X-IO ISE 860은 전체 평균 13ms 대기 시간을 제공했으며 12개의 VM 간에 14~4ms가 분산되었습니다. 이것은 볼륨 간 ISE 860의 일관성과 낮은 대기 시간 응답성이 최고의 수치를 달성하는 데 도움이 된 또 다른 영역입니다.
엔터프라이즈 종합 워크로드 분석
각각의 작업을 시작하기 전에 fio 합성 벤치마크, 우리 연구실은 스레드당 16개의 미해결 대기열이 있는 16개 스레드의 과도한 로드 하에서 시스템을 안정적인 상태로 사전 조정합니다. 그런 다음 저장소는 여러 스레드/대기열 깊이 프로필을 사용하여 설정된 간격으로 테스트되어 사용량이 적은 경우와 사용량이 많은 경우의 성능을 보여줍니다.
- 사전 조건화 및 기본 정상 상태 테스트:
- 처리량(집계된 읽기+쓰기 IOPS)
- 평균 대기 시간(읽기+쓰기 대기 시간을 함께 평균화)
- 최대 대기 시간(최대 읽기 또는 쓰기 대기 시간)
- 대기 시간 표준 편차(함께 평균화된 읽기+쓰기 표준 편차)
이 합성 분석은 제조업체 사양 및 벤치마크에서 널리 사용되는 두 가지 프로필을 통합합니다.
- 4k – 100% 읽기 및 100% 쓰기
- 8k – 70% 읽기/30% 쓰기
XNUMX세대 FIO LoadGen
- HP 프로라이언트 DL380 Gen9
- 듀얼 Intel E5-2667 v3 CPU(3.2GHz, 8코어, 20MB 캐시)
- 256GB RAM(16GB x 16 DDR4, CPU당 128GB)
- 윈도우 서버 2012 R2
- 400GB 부팅 SSD
- 2 X Emulex 16GB 듀얼 포트 FC HBA
- Brocade 6510 48포트 16Gb 스위치
첫 번째 벤치마크는 4% 쓰기 및 100% 읽기 활동으로 구성된 임의 100k 전송의 성능을 측정합니다. 처리량에서 X-IO ISE 860은 RAID286,694 구성을 사용하여 117,131 IOPS 읽기 및 5 쓰기를 기록했습니다. RAID1에서는 281,253 IOPS에서 더 나은 쓰기로 174,572 IOPS 읽기를 측정했습니다.
X-IO ISE 860은 RAID0.89에서 평균 2.18ms의 읽기 대기 시간과 5ms의 쓰기 대기 시간을 경험한 반면 RAID1은 0.91ms 읽기를 자랑했으며 1.46ms로 다시 뛰어난 쓰기 대기 시간을 보여주었습니다.
최대 대기 시간 테스트로 이동할 때 RAID860의 X-IO ISE 1은 22.7ms 읽기 및 17.2ms 쓰기를 기록했으며 RAID5 구성은 24.1ms 읽기 및 27.0ms 쓰기를 기록했습니다.
표준 편차 테스트에서 RAID1 구성은 0.25ms 읽기 및 1.06ms 쓰기로 훌륭한 결과를 계속했습니다. RAID5 구성은 비슷한 읽기를 보여주었지만 쓰기 대기 시간이 훨씬 더 깁니다(1.82ms).
8k 70% 읽기 30% 쓰기 임의 워크로드로 이동하면 두 X-IO ISE 860 구성 모두 스레드 전체에서 거의 동일한 결과를 보여줍니다. RAID5 구성은 16T/8Q에서 희미해지기 시작하여 대략 185,000 IOPS로 끝났습니다. RAID1은 전체적으로 약 230,000 IOPS의 터미널을 보여주었습니다.
평균 대기 시간을 보면 RAID1과 RAID5 모두 비슷한 결과를 다시 한 번 보여주지만 8T16Q 주변에서만 분리되기 때문에 비슷한 이야기를 할 수 있습니다. 터미널 깊이에서 RAID5는 평균 대기 시간이 약 1.4ms인 반면 RAID1은 1.2ms로 측정되었습니다.
최대 대기 시간 성능을 볼 때 결과는 훨씬 덜 비슷했습니다. 여기서 RAID1은 16T2Q에서 초기 2ms에서 시작하여 터미널에서 32ms에 도달했습니다. RAID860의 X-IO ISE 5은 18T2Q에서 2ms, 30T16Q에서 16ms를 측정했습니다.
아래와 같이 표준 편차 결과는 평균 대기 시간 차트와 매우 유사했습니다. 두 RAID 구성 모두 0.1ms에서 시작하여 점차 4T4Q 표시로 분리되었습니다. 터미널 스레드에서 RAID5 구성은 0.73ms에 도달했고 RAID1은 0.51ms에 도달했습니다.
다음 워크로드는 8K 작은 블록 순차 테스트로 전환됩니다. 이 시나리오에서 RAID860의 ISE 5은 434,562 IOPS 읽기 및 231,022 IOPS 쓰기를 측정한 RAID1과 비교하여 읽기 및 쓰기 성능 모두에서 431,200 IOPS 읽기 및 229,683 IOPS 쓰기를 측정하여 약간 앞서 있었습니다. 최대 I/O 잠재력 측면에서 ISE 860은 실망하지 않았습니다.
마지막 워크로드는 128K 대형 블록 순차 테스트입니다. 이 시나리오에서 두 RAID 구성은 비슷한 결과를 보였습니다. RAID5는 4,513MB 읽기 및 1,767MB/s 쓰기를 나타냈고 RAID1은 각각 4,503MB/s 및 1,913MB/s의 읽기 및 쓰기를 게시했습니다. 순차 성능은 고도로 무작위화된 트래픽을 보게 되는 과도한 가상화 세계에서 큰 역할을 하지 않지만, 어레이가 4.5GB/s 이상으로 밀어낼 수 있는 약간의 힘이 있음을 보는 것은 여전히 좋았습니다. 순차적 대형 블록 쓰기 성능은 약간 낮았지만 애플리케이션 테스트에서 얼마나 잘 수행되었는지를 고려할 때 실제 조건에는 큰 영향을 미치지 않습니다.
파트 1 최종 생각
검토의 2부에서는 성능의 여러 다른 영역을 검토할 것입니다. 지금까지 살펴본 바로는 VMmark, 메모리 데이터베이스의 DataFusion 및 OpenLDAP 데이터베이스 테스트와 같은 나머지 테스트에 대해 낙관적일 충분한 이유가 있습니다. 불행히도 우리는 ISE 860을 직접 비교할 것이 거의 없습니다. 우리가 테스트를 위해 배포한 Gen2 테스트 방법론 및 연구실 백본(Dell 서버)은 ISE 860이 검토 대상이 된 최초의 SAN으로 성공의 결실을 보여주고 있습니다. 그럼에도 불구하고 유사한 결과를 되돌아보고 일부를 추론하면 XIO ISE 플랫폼이 비즈니스 크리티컬 워크로드에 대해 매우 높은 수준에서 경쟁하는 다른 올플래시 헤비급 제품과 함께 메인 스테이지에서 플레이할 준비가 되었음을 알 수 있습니다. 2부에서는 VMmark에서 20개가 훨씬 넘는 타일을 실행하여 시스템을 한계까지 다시 압박하면서 더 많은 것을 밝힐 것입니다. 다음 회차를 기대해 주세요.
다가오는: X-IO Technologies ISE 860 G3 검토: 2부