GIGABYTE R282-Z92 서버는 2세대 AMD EPYC 프로세서를 활용하는 새로운 2U 듀얼 소켓 서버입니다. 듀얼 소켓이라는 것은 사용자가 128개의 EPYC CPU로 최대 64개의 코어(소켓당 4.0개)를 활용할 수 있음을 의미합니다. AMD EPYC 프로세서는 또한 더 빠른 스토리지, FPGA 및 GPU를 위한 옵션을 증가시키는 PCIe 4.0 장치의 추가 이점을 제공합니다. 서버에는 추가 항목을 지원하기 위한 XNUMX개의 개방형 PCIe XNUMX 확장 슬롯이 함께 제공됩니다.
GIGABYTE R282-Z92 서버는 2세대 AMD EPYC 프로세서를 활용하는 새로운 2U 듀얼 소켓 서버입니다. 듀얼 소켓이라는 것은 사용자가 128개의 EPYC CPU로 최대 64개의 코어(소켓당 4.0개)를 활용할 수 있음을 의미합니다. AMD EPYC 프로세서는 또한 더 빠른 스토리지, FPGA 및 GPU를 위한 옵션을 증가시키는 PCIe 4.0 장치의 추가 이점을 제공합니다. 서버에는 추가 항목을 지원하기 위한 XNUMX개의 개방형 PCIe XNUMX 확장 슬롯이 함께 제공됩니다.
새로운 AMD EPYC 프로세서를 추가로 구축한 GIGABYTE R282-Z92 서버는 최대 4MHz의 속도로 4TB 이상의 DDR3200 메모리를 지원합니다. CPU당 최대 16GB의 모듈을 지원하는 CPU당 128개의 DIMM을 통해 이를 달성할 수 있습니다. 서버는 전면에 있는 24개의 핫스왑 가능 베이를 통해 NVMe 스토리지를 지원하지만(SATA/SAS 스토리지용 후면 베이 4.0개는 말할 것도 없고) 전면 베이에서 PCIe XNUMX은 지원하지 않습니다.
다른 주목할만한 하드웨어 기능은 온보드 M.2 슬롯과 라이저 카드를 통한 더 많은 M.2 용량입니다. 서버에는 1개의 XNUMXGbE LAN 포트가 제공되지만 OCP 카드 슬롯을 포함하여 더 빠른 네트워킹을 위한 충분한 확장이 있습니다. 전원 관리는 XNUMX개의 핫 스왑 가능 PSU와 GIGABYTE의 지능형 전원 관리 기능을 통해 이루어지며, 이 기능은 전원 사용 측면에서 서버를 보다 효율적으로 만들고 장애 발생 시에도 전원을 유지합니다.
R282-Z92는 관리를 위해 자체 GSM을 활용합니다. 다음은 GUI에 대한 심층 분석입니다.. GSM은 사용자가 원격 모니터링 및 관리를 위해 vCenter를 사용할 수 있도록 하는 VMware 플러그인과 함께 제공됩니다.
기가바이트 R282-Z92 사양
치수(WxHxD, mm) | 2 유 438 X 87 X 730 mm |
마더 보드 | MZ92-FS0 |
CPU | AMD EPYC 7002 시리즈 프로세서 제품군 듀얼 프로세서, 7nm, 소켓 SP3 프로세서당 최대 64코어, 128스레드 TDP 최대 225W, cTDP 최대 240W 280W를 완벽하게 지원 AMD EPYC 7001 시리즈 프로세서 제품군과 호환 가능 |
칩셋 | 시스템 온 칩 |
메모리 | 3 2개의 DIMM 슬롯 DDR4 메모리만 지원 프로세서 아키텍처당 8채널 메모리 최대 128GB의 RDIMM 모듈 지원 최대 128GB의 LRDIMM 모듈 지원 메모리 속도: 최대 3200/ 2933MHz |
LAN | 2 x 1GbE LAN 포트(1 x Intel I350-AM2) 1/10/100 관리 LAN 1000개 |
Video | PCIe 버스 인터페이스가 있는 Aspeed AST2500 2D 비디오 그래픽 어댑터에 통합됨 1920×1200@60Hz 32bpp |
스토리지 | 전면: 24 x 2.5″ NVMe 핫스왑 가능 HDD/SSD 베이 후면: 2 x 2.5″ SATA/SAS 핫스왑 가능 HDD/SSD 베이, 온보드 SATA 포트 |
확장 슬롯 | 라이저 카드 CRS2014: – 1 x PCIe x16 슬롯(Gen4 x16), CNV3024 사용, 4 x NVMe HBARiser 카드 CRS2033: – 1 x PCIe x16 슬롯(Gen4 x16), FHHL, CNV3024 사용, 4 x NVMe HBA – 1 x PCIe x8 슬롯(Gen4 x8), FHHL, CNV3022 사용, 2 x NVMe HBA – 1 x PCIe x8 슬롯(Gen4 x8), FHHLiser 카드 CRS2033: – 1 x PCIe x16 슬롯(Gen4 x16), FHHL, CNV3024 사용, 4 x NVMe HBA – 1 x PCIe x8 슬롯(Gen4 x8), FHHL, CNV3022 사용, 2 x NVMe HBA – 1 x PCIe x8 슬롯(Gen4 x8), CPU_1에서 PCIe Gen3.0 x4 대역폭이 있는 FHHL16 x OCP 0 메자닌 슬롯 NCSI 기능 지원, CNVO134 사용, PCIe Gen4 x1 대역폭이 있는 2.0 x NVMe HBA3 x OCP 8 메자닌 슬롯(Type1, P1 , P2) 지원되는 NCSI 기능, CNVO022, 2 x NVMe HBA1 x M.2 슬롯 사용: – M 키 – PCIe Gen3 x4 – NGFF-2242/2260/2280/22110 카드 지원 – M.225 장치를 사용하는 경우 CPU TDP는 2W로 제한됩니다. |
내부 I / O | M.1 슬롯 2개 USB 1 헤더 3.0개 1 x COM 헤더 1 x TPM 헤더 1 x 전면 패널 헤더 1 x HDD 백플레인 보드 헤더 PMBus 커넥터 1개 IPMB 커넥터 1개 1 x 클리어 CMOS 점퍼 1 x BIOS 복구 점퍼 |
전면 I / O | USB 2 3.0개 LED가 있는 전원 버튼 1개 LED가 있는 ID 버튼 1개 1 X 리셋 버튼 1 x NMI 버튼 시스템 상태 LED 1개 1 x HDD 활동 LED 2 x LAN 활동 LED |
후면 I / O | USB 2 3.0개 1의 X의 VGA 2 X RJ45 1개의 MLAN LED가 있는 ID 버튼 1개 |
백플레인 I/O | 전면_CBP20O5: NVMe 포트 24개 후면_CBP2020: SATA/SAS 포트 2개 속도 및 대역폭: 포트당 SATA 6Gb/s, SAS 12Gb/s 또는 PCIe x4 |
TPM | SPI 인터페이스가 있는 1 x TPM 헤더 옵션 TPM2.0 키트: CTM010 |
전원 공급 장치 | 2 1600W 중복 PSU 80 PLUS PlatinumAC 입력: – 100-120V~/ 12A, 50-60Hz – 200-240V~/ 10.0A, 50-60HzDC 입력: 240Vdc, 10ADC 출력: – 최대 1000W/ 100-120V +12V/81.5A +12Vsb/2.5A – 1600-200V 또는 240Vdc 입력에서 최대 240W +12V/133A +12Vsb/2.5A |
OS 호환성 | Windows Server 2016(X2APIC/256T는 지원되지 않음) 윈도우 서버 2019 Red Hat Enterprise Linux 7.6(x64) 이상 Red Hat Enterprise Linux 8.0(x64) 이상 SUSE Linux Enterprise Server 12 SP4(x64) 이상 SUSE Linux Enterprise Server 15 SP1(x64) 이상 우분투 16.04.6 LTS(x64) 이상 우분투 18.04.3 LTS(x64) 이상 우분투 20.04 LTS(x64) 이상 VMware ESXi 6.5 EP15 이상 VMware ESXi 6.7 Update3 이상 VMware ESXi 7.0 이상 Citrix Hypervisor 8.1.0 이상 |
무게 | 순 중량 : 18.5 kg 총 무게 : 25.5 kg |
시스템 팬 | 4 x 80x80x38mm(16,300rpm) |
운영 속성 | 작동 온도 : 10 ° C ~ 35 ° C 작동 습도: 8%-80%(비응축) 비작동 온도: -40°C ~ 60°C 비작동 습도: 20%~95%(비응축) |
GIGABYTE R282-Z92 설계 및 구축
GIGABYTE R282-Z92는 다른 GIGABYTE 서버와 외관이 매우 유사한 2U 서버입니다(금속 프레임, 주황색 하이라이트가 있는 검은색 드라이브 베이, 검은색 전면). 장치 전면에는 전면의 대부분을 차지하는 2.5개의 3인치 PCIe Gen3.0 베이가 있습니다. 왼쪽에는 전원 버튼, ID 버튼, 재설정 버튼, NMI 버튼 및 LED(시스템 상태, HDD 활동 및 LAN 활동)가 있습니다. 오른쪽에는 XNUMX개의 USB XNUMX 포트가 있습니다.
후면에는 왼쪽 상단 모서리에 2.5개의 3.0인치 핫스왑 베이(SATA 또는 SAS, HDD/SSD용)가 있고 아래에 1개의 PSU가 있습니다. XNUMX개의 확장 슬롯이 나머지 대부분을 차지합니다. 하단에는 USB XNUMX 포트 XNUMX개, XNUMXGbE LAN 포트 XNUMX개, MLAN 포트 XNUMX개가 있습니다.
상단에서 튀어나오면 CPU와 RAM 슬롯이 뒤따르는 전면 근처의 팬을 볼 수 있습니다. 뒤쪽 근처에는 부팅용 M.2 슬롯이 있습니다.
기가바이트 R282-Z92 성능
기가바이트 R282-Z92 구성:
- AMD EPYC 2 7702개
- CPU당 512GB, 256GB
- 성능 스토리지: 12 x 마이크론 9300 NVMe 3.84TB
- CentOS 7(1908)
- ESXi 6.7u3
SQL 서버 성능
StorageReview의 Microsoft SQL Server OLTP 테스트 프로토콜은 복잡한 애플리케이션 환경에서 발견되는 활동을 시뮬레이션하는 온라인 트랜잭션 처리 벤치마크인 TPC-C(Transaction Processing Performance Council의 Benchmark C)의 최신 초안을 사용합니다. TPC-C 벤치마크는 합성 성능 벤치마크보다 데이터베이스 환경에서 스토리지 인프라의 성능 강점과 병목 현상을 측정하는 데 더 가깝습니다.
각 SQL Server VM은 100개의 vDisk(부팅용 500GB 볼륨, 데이터베이스 및 로그 파일용 16GB 볼륨)로 구성됩니다. 시스템 리소스 관점에서 각 VM을 vCPU 64개, DRAM XNUMXGB로 구성하고 LSI Logic SAS SCSI 컨트롤러를 활용했습니다. Sysbench 워크로드가 이전에 스토리지 I/O 및 용량 모두에서 플랫폼을 포화 상태로 테스트한 반면 SQL 테스트는 대기 시간 성능을 찾습니다.
이 테스트는 Windows Server 2014 R2012 게스트 VM에서 실행되는 SQL Server 2를 사용하며 Dell의 Benchmark Factory for Databases에서 강조합니다. 이 벤치마크의 기존 사용은 로컬 또는 공유 스토리지에서 대규모 3,000개 규모의 데이터베이스를 테스트하는 것이었지만, 이 반복에서는 1,500개 규모의 데이터베이스 XNUMX개를 서버 전체에 고르게 분산시키는 데 중점을 둡니다.
SQL Server 테스트 구성(VM당)
- 윈도우 서버 2012 R2
- 스토리지 공간: 600GB 할당, 500GB 사용
- SQL 서버 2014
-
- 데이터베이스 크기: 1,500 규모
- 가상 클라이언트 로드: 15,000
- RAM 버퍼: 48GB
- 시험 시간: 3시간
- 2.5시간 전처리
- 30분 샘플 기간
평균 대기 시간 SQL Server 벤치마크의 경우 7702VM 및 8VM을 사용하여 듀얼 AMD EPYC 4를 모두 테스트했습니다. VM이 8개인 경우 평균 대기 시간이 1.1ms이고 VM이 4개인 경우 1ms가 나타났습니다.
시스벤치 MySQL 성능
첫 번째 로컬 스토리지 애플리케이션 벤치마크는 SysBench를 통해 측정된 Percona MySQL OLTP 데이터베이스로 구성됩니다. 이 테스트는 평균 TPS(Transactions Per Second), 평균 대기 시간 및 평균 99번째 백분위수 대기 시간도 측정합니다.
각 Sysbench VM은 92개의 vDisk로 구성됩니다. 하나는 부팅용(~447GB), 하나는 사전 구축된 데이터베이스(~270GB), 세 번째는 테스트 중인 데이터베이스용(16GB)입니다. 시스템 리소스 관점에서 각 VM을 vCPU 60개, DRAM XNUMXGB로 구성하고 LSI Logic SAS SCSI 컨트롤러를 활용했습니다.
Sysbench 테스트 구성(VM당)
- 센트OS 6.3 64비트
- 페르코나 XtraDB 5.5.30-rel30.1
-
- 데이터베이스 테이블: 100
- 데이터베이스 크기: 10,000,000
- 데이터베이스 스레드: 32
- RAM 버퍼: 24GB
- 시험 시간: 3시간
- 2시간 동안 32개 스레드 사전 조정
- 1시간 32 스레드
Sysbench OLTP를 사용하여 7702VM이 있는 단일 8P, 7702VM이 있는 듀얼 8 및 16VM을 테스트했습니다. VM이 7702개인 8P는 15,914 IOPS를 보였습니다. 7702VM이 있는 두 개의 8에서 서버는 18,978 IOPS를 기록했습니다. 그리고 7702VM이 있는 두 개의 16로 29,995 IOPS를 기록했습니다.
Sysbench 평균 대기 시간을 통해 단일 16.08P에서 7702ms를 확인했습니다. VM이 7702개인 두 개의 8는 13.49ms에 도달했고 16VM은 17.07ms에 도달했습니다.
최악의 시나리오 대기 시간(99번째 백분위수)의 경우 단일 7702P는 31.07ms를 기록했습니다. 듀얼 7702 8VM은 26.48ms에 도달했고 16VM은 32.94ms에 불과했습니다.
VDBench 워크로드 분석
스토리지 어레이를 벤치마킹할 때는 애플리케이션 테스트가 가장 좋고 합성 테스트가 두 번째입니다. 실제 워크로드를 완벽하게 나타내지는 못하지만 합성 테스트는 경쟁 솔루션 간의 비교를 쉽게 수행할 수 있는 반복성 요소로 스토리지 장치의 기준선을 만드는 데 도움이 됩니다. 이러한 워크로드는 "포 코너" 테스트, 공통 데이터베이스 전송 크기 테스트, 다양한 VDI 환경의 트레이스 캡처에 이르는 다양한 테스트 프로필을 제공합니다. 이러한 모든 테스트는 스크립팅 엔진과 함께 공통 vdBench 워크로드 생성기를 활용하여 대규모 컴퓨팅 테스트 클러스터에서 결과를 자동화하고 캡처합니다. 이를 통해 플래시 어레이 및 개별 스토리지 장치를 포함한 광범위한 스토리지 장치에서 동일한 워크로드를 반복할 수 있습니다.
프로필 :
- 4K 임의 읽기: 100% 읽기, 128 스레드, 0-120% iorate
- 4K 임의 쓰기: 100% 쓰기, 64 스레드, 0-120% iorate
- 64K 순차 읽기: 100% 읽기, 16개 스레드, 0-120% iorate
- 64K 순차 쓰기: 100% 쓰기, 8개 스레드, 0-120% 속도
- 합성 데이터베이스: SQL 및 Oracle
- VDI 전체 클론 및 연결된 클론 추적
무작위 4K 읽기에서 GIGABYTE R282-Z92 서버는 7,005,724µs의 대기 시간과 함께 213 IOPS로 정점을 찍었습니다.
랜덤 4K 쓰기는 서버가 대기 시간이 389,144µs에 불과한 29.6 IOPS에서 시작하는 것을 확인했습니다. 100만 IOPS를 돌파할 때까지 3µs 미만으로 유지되었습니다. 대기 시간이 3,478,209µs인 282 IOPS에서 정점을 찍었습니다.
다음은 64k를 살펴본 순차 워크로드입니다. 64K 읽기의 경우 GIGABYTE 서버는 640,344µs의 대기 시간에서 40 IOPS 또는 448GB/s로 정점을 찍었습니다.
64K 쓰기의 경우 서버는 65µs에서 시작하여 약 1K IOPS 또는 255µs에서 15.9GB/s인 정점에 가까워질 때까지 739ms 미만을 유지한 후 일부를 떨어뜨립니다.
다음 테스트 세트는 SQL, SQL 90-10 및 SQL 80-20과 같은 SQL 워크로드입니다. SQL부터 서버는 2,352,525µs의 대기 시간에서 159.2 IOPS로 정점을 찍었습니다.
SQL 90-10의 경우 서버는 대기 시간에 대해 2,377,576µs에서 156 IOPS로 정점을 찍었습니다.
SQL 80-20은 2,231,986µs의 대기 시간으로 165 IOPS의 최고 성능을 보였습니다.
다음은 Oracle 워크로드인 Oracle, Oracle 90-10 및 Oracle 80-20입니다. Oracle을 시작으로 GIGABYTE R282-Z92 Server는 2,277,224µs의 대기 시간에서 최고 164.4 IOPS를 기록했습니다.
Oracle 90-10을 사용하여 서버는 시작 지점보다 약 1,925,440µs 더 높은 133.4µs의 대기 시간으로 20 IOPS에서 정점을 찍을 수 있었습니다.
Oracle 80-20은 서버에 1,867,576µs의 대기 시간에서 137.3 IOPS의 최고 성능을 제공했습니다.
다음으로 VDI 클론 테스트인 Full and Linked로 전환했습니다. VDI 전체 복제(FC) 부팅의 경우 GIGABYTE 서버는 1,862,923µs의 대기 시간으로 최고 195 IOPS를 기록했습니다.
VDI FC 초기 로그인은 약간 떨어지기 전에 802,373µs에서 약 280 IOPS의 피크를 보였습니다.
다음은 대기 시간이 699,134µs인 VDI FC 월요일 로그인으로 최대 201 IOPS를 제공합니다.
VDI Linked Clone(LC) 부팅으로 전환한 GIGABYTE는 최고 823,245 IOPS와 187.2µs의 대기 시간을 기록했습니다.
VDI LC 초기 로그인의 경우 서버는 426,528µs의 대기 시간과 함께 188.1 IOPS로 정점을 찍었습니다.
마지막으로 VDI LC Monday Login은 최대 476,985 IOPS를 기록했으며 대기 시간은 261.5µs에 불과했습니다.
결론
GIGABYTE R282-Z92는 2세대 AMD EPYC 프로세서와 함께 제공되는 대부분의 이점을 활용하는 듀얼 소켓 64U 서버입니다. 서버에 128코어 CPU 4개를 장착하면 사용자에게 총 4개의 코어가 제공됩니다. 또한 최대 3200MHz의 속도로 16TB 이상의 DDR32 RAM을 활용할 수 있습니다(슬롯당 최대 128GB를 지원하는 총 4.0개의 CPU당 3.0개의 DIMM). EPYC는 새로운 스토리지 옵션, FPGA, GPU 및 OCP 24에 대한 PCIe 2.5 지원을 제공합니다. 용량 스토리지를 위해 서버에는 전면에 3개의 2.5인치 NVMe Gen2 베이, 후면에 4개의 XNUMX인치 SAS/SATA 베이 및 온보드 M.XNUMX 슬롯이 있습니다. 확장 측면에서 우리의 구성은 OCP 슬롯과 함께 XNUMX개의 PCIe GenXNUMX 슬롯을 열어 둡니다. 나머지 PCIe 슬롯은 전면의 NVMe 드라이브 베이를 지원하는 어댑터 카드에 사용됩니다.
애플리케이션 워크로드 분석을 위해 SQL Server 평균 대기 시간과 일반적인 Sysbench 테스트를 살펴보았습니다. SQL Server의 경우 7702VM 및 8VM의 듀얼 AMD EPYC 4를 모두 실행했으며 각각 1.1ms 및 1ms를 확인했습니다. Sysbench를 사용하여 7702VM이 포함된 단일 8P, 7702VM 및 8VM이 포함된 이중 16를 실행했습니다. 트랜잭션에서 단일 7702P는 16K IOPS를 기록했고, 이중 7702 8VM은 19K IOPS를, 이중 30 7702VM은 16K IOPS를 기록했습니다. Sysbench 평균 대기 시간은 단일 7702P가 16.1ms, 이중 7702 8VM이 13.5ms, 이중 7702 16VM이 17.1ms를 기록했습니다. Sysbench 최악의 시나리오 대기 시간은 단일 7702P가 31.1ms, 이중 7702 8VM이 26.5ms, 이중 7702 16VM이 32.9ms를 기록했습니다.
VDBench 워크로드에서 GIGABYTE R282-Z92는 정말 인상적이었습니다. 대기 시간이 항상 밀리초 미만인 것은 아니지만 최고 수치는 지속적으로 높았습니다. 하이라이트는 7K 읽기에 대해 4만 IOPS, 4K 쓰기에 3.4만 IOPS 이상, 64K 읽기 적중률 40GB/s, 64K 쓰기 적중률 15.9GB/s를 포함합니다. SQL에서 우리는 SQL 및 SQL 2.4-90에서 10만 IOPS, SQL 2.2-80에서 20만 IOPS를 확인했습니다. Oracle에서 서버는 2.3만 IOPS, Oracle 1.9-90은 10만 IOPS, Oracle 1.9-80은 20만 IOPS를 기록했습니다. VDI 복제 테스트에서 우리는 1.9만 IOPS 부팅, 802K IOPS 초기 로그인 및 699K IOPS 월요일 로그인의 전체 복제 결과를 확인했고, Linked Clone의 경우 부팅 시 823K IOPS, 초기 로그인 시 427K IOPS, 월요일 로그인 시 477K IOPS를 확인했습니다.
전반적으로 GIGABYTE R282-Z92는 전면에 24개의 베이, 후면에 2개의 베이, 부팅용 온보드 M.4 슬롯을 활용하는 인상적인 스토리지 밀도를 갖춘 견고한 플랫폼입니다. 주로 스토리지 관점에서 두 가지 실망이 있습니다. 첫 번째는 GIGABYTE가 확장 옵션을 제한하는 NVMe 카드용 확장 슬롯을 4개까지 사용한다는 점입니다. 둘째, 전면 베이에서 PCIe Gen4를 지원하지 않습니다. 후면 스틸에는 4개의 GenXNUMX 슬롯이 열려 있어 필요한 경우 약간의 I/O, 스토리지 또는 GPU 확장이 가능합니다. GenXNUMX SSD 전면에는 아직 옵션이 많지 않지만 GenXNUMX는 미래이며 가치 있는 투자이므로 여기에서 지원되는 것을 보게 되어 더 기쁩니다. 하지만 최신 SSD가 정말로 필요하다면 어쨌든 이 특정 서버를 고려하지 않습니다. 즉, 시스템은 그대로 비명을 지른다.
이 플랫폼에서 우리가 가진 것은 2U의 놀라운 계산 능력입니다. 단 12개의 NVMe SSD로 정말 좋은 성능 프로필을 보았고 단일 워크로드에서만 CPU를 제한했습니다. 즉, 더 많은 것을 제공할 수 있습니다. 그럼에도 불구하고 우리는 7만 4K IOPS와 40GB/s 64K 읽기라는 멋진 영웅 수치를 달성했습니다. AMD는 128세대 EPYC CPU로 정말 훌륭한 작업을 수행했으며 이 플랫폼은 이러한 XNUMX개의 코어를 잘 활용합니다.
StorageReview에 참여
뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 페이스북 | RSS 피드