GIGABYTE R181-2A0은 XNUMX세대 Intel Xeon Scalable 프로세서. 4세대 Xeon CPU는 Optane DC 메모리 지원, 더 높은 CPU 주파수 및 그에 수반되는 성능, 더 빠른 DDRXNUMX 속도 및 Intel Deep Learning Boost의 일반적인 용의자를 포함하는 서버에 일련의 이점을 제공합니다. 이 서버는 매우 유연하며 공유 스토리지 또는 HPC 사용 사례에 연결된 애플리케이션을 대상으로 합니다.
GIGABYTE R181-2A0은 XNUMX세대 Intel Xeon Scalable 프로세서. 4세대 Xeon CPU는 Optane DC 메모리 지원, 더 높은 CPU 주파수 및 그에 수반되는 성능, 더 빠른 DDRXNUMX 속도 및 Intel Deep Learning Boost의 일반적인 용의자를 포함하는 서버에 일련의 이점을 제공합니다. 이 서버는 매우 유연하며 공유 스토리지 또는 HPC 사용 사례에 연결된 애플리케이션을 대상으로 합니다.
하드웨어 관점에서 우리는 CPU에 대해 언급했으며, 서버에는 24개의 DIMM 슬롯, 3개의 PCIe 확장 슬롯, 1200개의 OCP Gen80 메자닌 슬롯 및 중복 XNUMXW XNUMX Plus 플래티넘 PSU가 있습니다. 스토리지의 경우 GIGABYTE는 모든 것에 NVMe를 사용하는 대신 SAS 또는 SATA를 사용합니다. 기본적으로 모든 사람이 NVMe 또는 이와 관련된 비용을 원하거나 필요로 하는 것은 아닙니다. 이러한 고객에게는 이 서버가 적합합니다.
여기에서 동영상 개요를 확인했습니다.
우리의 특정 빌드는 8280개의 Intel 384 CPU, XNUMXTB 메모리 및 멤블레이즈 PBlaze5 C926 엣지카드 NVMe SSD.
GIGABYTE R181-2A0 사양
폼 팩터 | 1U |
치수(WxHxD, mm) | 438 X 43.5 X 730 |
마더 보드 | MR91-FS0 |
CPU | 2세대 인텔 제온 확장 가능 프로세서 및 인텔 제온 확장 가능 프로세서 인텔 제온 플래티넘 프로세서, 인텔 제온 골드 프로세서, 인텔 제온 실버 프로세서 및 인텔 제온 브론즈 프로세서 CPU TDP 최대 205W |
소켓 | LGA 2 소켓 P 3647개 |
칩셋 | 인텔 C621 익스프레스 칩셋 |
메모리 | 24개의 DIMM 슬롯 DDR4 메모리만 지원 6채널 메모리 아키텍처 최대 64GB의 RDIMM 모듈 지원 최대 128GB의 LRDIMM 모듈 지원 Intel Optane DC 영구 메모리(DCPMM) 지원 1.2V 모듈: 2933/2666/2400/2133MHz |
LAN | 2Gb/s LAN 포트 1개(Intel I350-AM2) 1/10/100 관리 LAN 1000개 |
스토리지 | 10 x 2.5″ SATA/SAS 핫스왑 가능한 HDD/SSD 베이 기본 구성은 다음을 지원합니다. 10개의 SATA 드라이브 또는 2개의 SATA 드라이브 8개의 SAS 드라이브 SAS 장치 지원에는 SAS 카드가 필요합니다. |
SATA | 2핀 SATA III 7Gb/s 6개(SATA DOM 지원) 전원 기능을 위해 pin_8 또는 외부 케이블을 사용하여 |
SAS | 애드온 SAS 카드를 통해 지원됨 |
RAID | 인텔 SATA RAID 0/1/10/5 |
확장 슬롯 | 라이저 카드 CRS1021: – 2 x PCIe x8 슬롯(Gen3 x8), 로우 프로파일 절반 길이 라이저 카드 CRS1015: – 1 x PCIe x16 슬롯(Gen3 x16), 로우 프로파일 절반 길이 OCP 메자닌 슬롯 2개 – PCIe Gen3 x16 – 유형1, P1, P2, P3, P4, K2, K3 |
내부 I / O | 2 x 전원 공급 장치 커넥터 SlimSAS 커넥터 4개 2 x SATA 7핀 커넥터 2 x CPU 팬 헤더 USB 1 헤더 3.0개 1 x TPM 헤더 VROC 커넥터 1개 1 x 전면 패널 헤더 1 x HDD 백플레인 보드 헤더 IPMB 커넥터 1개 1 x 클리어 CMOS 점퍼 1 x BIOS 복구 점퍼 |
전면 I / O | 1 X USB 3.0 LED가 있는 전원 버튼 1개 LED가 있는 ID 버튼 1개 1 X 리셋 버튼 1 x NMI 버튼 2 x LAN 활동 LED 1 x HDD 활동 LED 시스템 상태 LED 1개 |
후면 I / O | 2 X USB 3.0 1의 X의 VGA COM(RJ1 유형) 45개 2 X RJ45 1개의 MLAN LED가 있는 ID 버튼 1개 |
백플레인 I/O | 10개의 SATA/SAS 포트 대역폭: 포트당 SATAIII 6Gb/s 또는 SAS 12Gb/s 2 x U.2 포트(예약됨) 대역폭: 포트당 PCIe Gen3 x4(예약됨) |
TPM | LPC 인터페이스가 있는 1 x TPM 헤더 옵션 TPM2.0 키트: CTM000 |
전원 공급 장치 | 2W 중복 PSU 1200개 80 PLUS 플래티넘 AC 입력 : – 100-240V~/ 12-7A, 50-60Hz DC 입력 : – 240Vdc/6A DC 출력 : – 최대 1000W/ 100-240V~ +12V/80.5A +12Vsb/3A – 최대 1200W/ 200-240V~ 또는 240Vdc 입력 +12V/97A +12Vsb/3A |
무게 | 13의 kg |
시스템 팬 | 8 x 40x40x56mm (23'000rpm) |
운영 속성 | 작동 온도 : 10 ° C ~ 35 ° C 작동 습도: 8-80%(비응축) 비작동 온도: -40°C ~ 60°C 비작동 습도: 20%~95%(비응축) |
GIGABYTE R181-2A0 설계 및 구축
명시된 바와 같이 GIGABYTE R181-2A0에는 1U 폼 팩터가 있습니다. 서버 전면에는 2.5개의 3.0인치 SATA/SAS 드라이브 베이가 있습니다. 왼쪽에는 표시등, 전원 버튼, ID 버튼, 재설정 버튼, NMI 버튼 및 USB XNUMX 포트가 있습니다.
서버 후면에는 왼쪽에 PSU 3.0개, VGA 포트 45개, USB XNUMX 포트 XNUMX개, RJXNUMX 포트 XNUMX개, COM 포트, MLAN 포트 XNUMX개, ID 버튼 XNUMX개, 상단 근처에 로우 프로필 확장 슬롯 XNUMX개가 있습니다. 하단 근처에 있는 XNUMX개의 OCP 슬롯.
서버를 열면 중앙에 CPU와 RAM이 즉시 표시됩니다. 이를 통해 사용자는 라이저 카드 및 필요한 모든 확장 슬롯에 쉽게 액세스할 수 있습니다. 공유 스토리지, Mellanox Connect-X 16 듀얼 포트 4GbE NIC 및 Memblaze PBlaze25 SSD에 연결하기 위해 듀얼 포트 5Gb FC HBA를 설치했습니다.
GIGABYTE R181-2A0에는 자체 GSM 원격 관리 소프트웨어가 있지만 BMC 서버 관리를 위해 AMI MegaRAC SP-X 플랫폼을 활용할 수도 있습니다. 이 리뷰에서는 MegaRAC를 사용할 것입니다. GIGABYTE 서버의 AMI MegaRAC SP-X에 대한 자세한 내용은 다음을 확인하십시오. GIGABYTE R272-Z32 AMD EPYC 로마 서버 리뷰.
기본 관리 화면에서 랜딩 페이지의 빠른 통계를 볼 수 있으며 대시보드, 센서, 시스템 인벤토리, FRU 정보, 로그 및 보고서, 설정, 원격 제어, 이미지 리디렉션, 전원 제어, 및 유지 보수. 첫 번째 페이지는 대시보드입니다. 여기에서 BMC의 작동 시간, 보류 중인 선언 해제, 액세스 로그, 발생한 문제 수, 센서 모니터링, 드라이브 슬롯 및 지난 24시간과 30일 동안 발생한 이벤트 수를 쉽게 확인할 수 있습니다.
일단 시작되면 원격 콘솔은 사용자에게 서버 OS에 대한 원격 액세스를 제공합니다. 이 예에서는 Linux 로딩 화면입니다. 원격 콘솔 창은 모니터, 키보드 및 마우스 크래시 카트를 들고 다닐 필요 없이 로컬 제어가 필요한 데이터 센터에서 매우 중요한 도구입니다. 창의 오른쪽 상단에 보이는 것은 소프트웨어 로드를 위해 서버에서 원격으로 액세스할 수 있도록 로컬 시스템에서 ISO를 마운트할 수 있는 CD 이미지 기능입니다.
유지 관리 탭을 통해 사용자는 BIOS 정보 및 펌웨어 정보를 찾을 수 있습니다.
기가바이트 R181-2A0 성능
GIGABYTE R181-2A0 구성:
- Intel 2 CPU 8280개(28코어, 2.7GHz)
- 12 x 32GB 2933MHz, CPU당 6개의 DIMM
- 1TB Memblaze PBlaze6.4 C5 NVMe SSD 926개
- VM웨어 ESXi 6.7u3
- CentOS 7(1908)
SQL 서버 성능
StorageReview의 Microsoft SQL Server OLTP 테스트 프로토콜은 복잡한 애플리케이션 환경에서 발견되는 활동을 시뮬레이션하는 온라인 트랜잭션 처리 벤치마크인 TPC-C(Transaction Processing Performance Council의 Benchmark C)의 최신 초안을 사용합니다. TPC-C 벤치마크는 합성 성능 벤치마크보다 데이터베이스 환경에서 스토리지 인프라의 성능 강점과 병목 현상을 측정하는 데 더 가깝습니다.
각 SQL Server VM은 100개의 vDisk(부팅용 500GB 볼륨, 데이터베이스 및 로그 파일용 16GB 볼륨)로 구성됩니다. 시스템 리소스 관점에서 각 VM을 vCPU 64개, DRAM XNUMXGB로 구성하고 LSI Logic SAS SCSI 컨트롤러를 활용했습니다. Sysbench 워크로드가 이전에 스토리지 I/O 및 용량 모두에서 플랫폼을 포화 상태로 테스트한 반면 SQL 테스트는 대기 시간 성능을 찾습니다.
이 테스트는 Windows Server 2014 R2012 게스트 VM에서 실행되는 SQL Server 2를 사용하며 Dell의 Benchmark Factory for Databases에서 강조합니다. 이 벤치마크의 기존 사용은 로컬 또는 공유 스토리지에서 대규모 3,000개 규모의 데이터베이스를 테스트하는 것이었지만, 이 반복에서는 1,500개 규모의 데이터베이스 XNUMX개를 서버 전체에 고르게 분산시키는 데 중점을 둡니다.
SQL Server 테스트 구성(VM당)
- 윈도우 서버 2012 R2
- 스토리지 공간: 600GB 할당, 500GB 사용
- SQL 서버 2014
-
- 데이터베이스 크기: 1,500 규모
- 가상 클라이언트 로드: 15,000
- RAM 버퍼: 48GB
- 시험 시간: 3시간
- 2.5시간 전처리
- 30분 샘플 기간
트랜잭션 SQL Server 벤치마크의 경우 GIGABYTE는 12,643.8 TPS에서 3,160.1 TPS 범위의 개별 VM에서 3,161.5 TPS의 총 점수를 받았습니다.
SQL Server 평균 대기 시간의 경우 서버의 집계 점수는 2.3ms이고 VM 범위는 1ms에서 3ms입니다.
시스벤치 MySQL 성능
첫 번째 로컬 스토리지 애플리케이션 벤치마크는 SysBench를 통해 측정된 Percona MySQL OLTP 데이터베이스로 구성됩니다. 이 테스트는 평균 TPS(Transactions Per Second), 평균 대기 시간 및 평균 99번째 백분위수 대기 시간도 측정합니다.
각 Sysbench VM은 92개의 vDisk로 구성됩니다. 하나는 부팅용(~447GB), 하나는 사전 구축된 데이터베이스(~270GB), 세 번째는 테스트 중인 데이터베이스용(16GB)입니다. 시스템 리소스 관점에서 각 VM을 vCPU 60개, DRAM XNUMXGB로 구성하고 LSI Logic SAS SCSI 컨트롤러를 활용했습니다.
Sysbench 테스트 구성(VM당)
- 센트OS 6.3 64비트
- 페르코나 XtraDB 5.5.30-rel30.1
-
- 데이터베이스 테이블: 100
- 데이터베이스 크기: 10,000,000
- 데이터베이스 스레드: 32
- RAM 버퍼: 24GB
- 시험 시간: 3시간
- 2시간 동안 32개 스레드 사전 조정
- 1시간 32 스레드
Sysbench OLTP와 함께 GIGABYTE R181-2A0은 11,096.4 TPS에서 1,375 TPS 사이에서 실행되는 개별 VM에서 총 점수 1,422.72 TPS를 기록했습니다.
Sysbench 평균 대기 시간의 경우 서버의 집계 점수는 23.1ms이며 개별 VM은 22.5ms에서 23.3ms로 실행됩니다.
최악의 시나리오 대기 시간(99번째 백분위수)의 경우 GIGABYTE는 개별 VM이 40.3ms에서 40.2ms로 실행되는 경우 총 점수 40.4ms를 기록했습니다.
VDBench 워크로드 분석
스토리지 어레이를 벤치마킹할 때는 애플리케이션 테스트가 가장 좋고 합성 테스트가 두 번째입니다. 실제 워크로드를 완벽하게 나타내지는 못하지만 합성 테스트는 경쟁 솔루션 간의 비교를 쉽게 수행할 수 있는 반복성 요소로 스토리지 장치의 기준선을 만드는 데 도움이 됩니다. 이러한 워크로드는 "포 코너" 테스트, 공통 데이터베이스 전송 크기 테스트, 다양한 VDI 환경의 트레이스 캡처에 이르는 다양한 테스트 프로필을 제공합니다. 이러한 모든 테스트는 스크립팅 엔진과 함께 공통 vdBench 워크로드 생성기를 활용하여 대규모 컴퓨팅 테스트 클러스터에서 결과를 자동화하고 캡처합니다. 이를 통해 플래시 어레이 및 개별 스토리지 장치를 포함한 광범위한 스토리지 장치에서 동일한 워크로드를 반복할 수 있습니다.
프로필 :
- 4K 임의 읽기: 100% 읽기, 128 스레드, 0-120% iorate
- 4K 임의 쓰기: 100% 쓰기, 64 스레드, 0-120% iorate
- 64K 순차 읽기: 100% 읽기, 16개 스레드, 0-120% iorate
- 64K 순차 쓰기: 100% 쓰기, 8개 스레드, 0-120% 속도
- 합성 데이터베이스: SQL 및 Oracle
- VDI 전체 클론 및 연결된 클론 추적
무작위 4K 읽기를 통해 GIGABYTE R181-2A0은 706,664µs의 대기 시간과 함께 178.6 IOPS에서 최고점을 기록하며 강력하게 시작했습니다.
4K 랜덤 쓰기의 경우 서버는 단 58,406µs의 33.9 IOPS에서 시작하여 100 IOPS 및 561,280µs인 정점 근처까지 213.3µs 미만을 유지했습니다.
다음은 64k를 살펴본 순차 워크로드입니다. 64K 읽기의 경우 GIGABYTE는 82,271µs의 대기 시간에서 5.1 IOPS 또는 387.4GB/s로 정점을 찍었습니다.
64K 순차 쓰기는 약 43K IOPS 또는 2.7µs 대기 시간에서 약 182GB/s의 서버 적중을 확인한 후 일부를 떨어뜨렸습니다.
다음 테스트 세트는 SQL, SQL 90-10 및 SQL 80-20과 같은 SQL 워크로드입니다. SQL부터 서버는 220,712µs의 대기 시간과 함께 143 IOPS로 정점을 찍었습니다.
SQL 90-10의 경우 230,152µs의 대기 시간에서 137 IOPS의 최고 성능을 확인했습니다.
SQL 80-20은 최대 229,724 IOPS와 136µs의 대기 시간으로 강력한 성능을 계속했습니다.
다음은 Oracle 워크로드인 Oracle, Oracle 90-10 및 Oracle 80-20입니다. Oracle을 시작으로 서버는 246,191µs의 대기 시간과 함께 142 IOPS로 정점을 찍었습니다.
Oracle 90-10을 사용하여 GIGABYTE는 172,642µs의 대기 시간으로 125.5 IOPS를 달성할 수 있었습니다.
마지막 Oracle 벤치마크인 Oracle 80-20은 서버가 대기 시간에 대해 178,108µs에서 최고 121 IOPS에 도달하는 것을 확인했습니다.
다음으로 VDI 클론 테스트인 Full and Linked로 전환했습니다. VDI 전체 복제(FC) 부팅의 경우 GIGABYTE R181-2A0은 196,719µs의 대기 시간과 함께 174 IOPS로 정점을 찍었습니다.
VDI FC 초기 로그인의 경우 서버는 대기 시간이 150,518µs인 190 IOPS로 정점을 찍었습니다.
VDI FC Monday Login은 94,813µs의 대기 시간과 함께 161.3 IOPS에서 서버 피크를 확인했습니다.
VDI Linked Clone(LC) 부트로 전환하여 GIGABYTE는 89,269µs의 대기 시간으로 177.4 IOPS를 달성할 수 있었습니다.
VDI LC 초기 로그인으로 서버는 50,860µs에서 148 IOPS에 도달했습니다.
마지막으로 VDI LC Monday Login은 GIGABYTE가 75,850µs의 대기 시간에서 201.3 IOPS를 기록하는 것을 확인했습니다.
결론
GIGABYTE R181-2A0은 Intel의 1세대 Xeon Scalable 프로세서와 이러한 CPU를 활용하는 모든 이점을 기반으로 구축된 또 다른 서버입니다. Intel Xeon Scalable 중심이라는 점 외에도 이 1U 서버는 매우 유연합니다. 24U에 불과하지만 서버에는 10개의 Intel Xeon Scalable CPU, 2.5개의 DIMM RAM, SATA 또는 SAS 드라이브용 XNUMX개의 XNUMX인치 드라이브 베이, XNUMX개의 PCIe 확장 슬롯 및 XNUMX개의 OCP 메자닌 슬롯이 있습니다. 이 서버는 공유 스토리지 또는 아마도 HPC 사용 사례에 연결된 애플리케이션 워크호스가 되는 것을 목표로 합니다.
성능을 위해 애플리케이션 워크로드 분석과 VDBench 테스트를 모두 실행했습니다. 전면 드라이브 베이는 NVMe를 지원하지 않지만 확장 슬롯은 NVMe 드라이브를 추가하여 서버 성능 잠재력을 극대화했습니다. SQL Server 벤치마크에서 서버의 총 점수는 12,642.8 TPS이고 평균 대기 시간은 2.3ms입니다. Sysbench의 경우 집계 점수 11,810 TPS, 평균 대기 시간 23.1ms, 최악의 시나리오 대기 시간 40.3ms를 확인했습니다.
VDbench의 경우 소형 서버는 707K 읽기의 경우 4K IOPS, 561K 쓰기의 경우 4K IOPS, 5.1K 읽기의 경우 64GB/s, 2.7K 쓰기의 경우 64GB/s로 상당히 좋은 수치를 기록했습니다. SQL 테스트에서 R181-2A0은 최고 221K IOPS, SQL 230-90에서 10K IOPS, SQL 230-80에서 20K IOPS를 기록할 수 있었습니다. Oracle의 경우 수치는 246K IOPS, Oracle 173-90에서 10K IOPS, Oracle 178-80에서 20K IOPS였습니다. VDI 복제 테스트에서 숫자가 약간 줄어들기 시작했지만 VDI FC 부팅(100K IOPS) 및 VDI FC 초기 로그인(197K IOPS)에서 151K IOPS 이상을 유지했습니다.
컴팩트한 폼 팩터에서 충분한 유연성을 찾는 사용자에게는 GIGABYTE R181-2A0만 있으면 됩니다.
StorageReview에 참여
뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 페이스북 | RSS 피드