El GIGABYTE R181-2A0 es un servidor 1U construido alrededor del Procesadores escalables Intel Xeon de segunda generación. Las CPU Xeon de segunda generación brindan su conjunto de beneficios al servidor que contiene los sospechosos habituales de soporte de memoria Optane DC, frecuencias de CPU más altas y el rendimiento que puede venir con eso, velocidad DDR4 más rápida e Intel Deep Learning Boost. El servidor es súper flexible y está dirigido a una aplicación conectada a almacenamiento compartido, o tal vez a casos de uso de HPC.
El GIGABYTE R181-2A0 es un servidor 1U construido alrededor del Procesadores escalables Intel Xeon de segunda generación. Las CPU Xeon de segunda generación brindan su conjunto de beneficios al servidor que contiene los sospechosos habituales de soporte de memoria Optane DC, frecuencias de CPU más altas y el rendimiento que puede venir con eso, velocidad DDR4 más rápida e Intel Deep Learning Boost. El servidor es súper flexible y está dirigido a una aplicación conectada a almacenamiento compartido, o tal vez a casos de uso de HPC.
Desde una perspectiva de hardware, mencionamos las CPU, el servidor tiene 24 ranuras DIMM, tres ranuras de expansión PCIe y dos ranuras intermedias OCP Gen3, y fuentes de alimentación redundantes 1200 Plus platinum de 80 W. Para el almacenamiento, GIGABYTE va con SAS o SATA en lugar de lanzar NVMe en todo. Básicamente, no todos quieren o necesitan NVMe o el costo asociado con él. Y para esos clientes, este servidor cumple con los requisitos.
Hicimos un video resumen aquí:
Nuestra construcción particular consta de dos CPU Intel 8280, 384 TB de memoria y un Memblaze P Blaze5 C926 Tarjeta de borde NVMe SSD.
Especificaciones de GIGABYTE R181-2A0
Factor de forma | 1U |
Dimensiones (An. x Al. x Pr., mm) | 438 x 43.5 x 730 |
Placa madre | MR91-FS0 |
CPU | Procesadores Intel Xeon Scalable e Intel Xeon Scalable de segunda generación Procesador Intel Xeon Platinum, procesador Intel Xeon Gold, procesador Intel Xeon Silver y procesador Intel Xeon Bronze Procesador TDP hasta 205W |
Enchufe | 2 x LGA 3647 Zócalo P |
chipset | Conjunto de chips Intel C621 Express |
Salud Cerebral | 24 ranuras DIMM Solo se admite memoria DDR4 arquitectura de memoria de 6 canales Admite módulos RDIMM de hasta 64 GB Admite módulos LRDIMM de hasta 128 GB Admite la memoria persistente Intel Optane DC (DCPMM) Módulos de 1.2 V: 2933/2666/2400/2133 MHz |
LAN | 2 puertos LAN de 1 Gb/s (Intel I350-AM2) 1 LAN de administración 10/100/1000 |
Storage | 10 bahías HDD/SSD intercambiables en caliente SATA/SAS de 2.5″ La configuración predeterminada admite: 10 unidades SATA o 2 unidades SATA 8 unidades SAS Se requiere una tarjeta SAS para la compatibilidad con dispositivos SAS |
SATA | 2 x 7 pines SATA III 6Gb/s con soporte SATA DOM Mediante el uso de pin_8 o cable externo para la función de alimentación |
SAS | Compatible a través de la tarjeta SAS adicional |
RAID | RAID SATA 0/1/10/5 |
Slots de expansión | Tarjeta vertical CRS1021: – 2 x ranuras PCIe x8 (Gen3 x8), perfil bajo de longitud media Tarjeta vertical CRS1015: – 1 x ranura PCIe x16 (Gen3 x16), perfil bajo de longitud media 2 ranuras intermedias OCP – PCIe Gen3 x16 – Tipo1, P1, P2, P3, P4, K2, K3 |
E / S interna | 2 conectores de fuente de alimentación 4 conectores SlimSAS 2 conectores SATA de 7 pines 2 cabezales de ventilador de CPU 1 x cabezal USB 3.0 1 encabezado TPM 1 conector VROC 1 encabezado del panel frontal. 1 cabezal de placa de plano posterior HDD 1 conector IPMB 1 x Borrar puente CMOS 1 puente de recuperación de BIOS |
E / S frontal | 1 3.0 x USB 1 x botón de encendido con LED 1 x botón de identificación con LED 1 botón de reinicio x 1 botón NMI 2 LED de actividad LAN 1 LED de actividad del disco duro 1 LED de estado del sistema |
E / S trasera | 2 3.0 x USB 1 x VGA 1 COM (tipo RJ45) 2 x RJ45 1x MLAN 1 x botón de identificación con LED |
E/S de panel posterior | 10 puertos SATA/SAS Ancho de banda: SATAIII 6 Gb/s o SAS 12 Gb/s por puerto 2 puertos U.2 (reservados) Ancho de banda: PCIe Gen3 x4 por puerto (reservado) |
TPM | 1 cabezal TPM con interfaz LPC Kit TPM2.0 opcional: CTM000 |
Fuente de Energía | 2 fuentes de alimentación redundantes de 1200 W 80 más platino Entrada de CA: – 100-240V~/ 12-7A, 50-60Hz Entrada de CC: – 240Vcc/ 6A Salida DC: – Máx. 1000W/ 100-240V~ +12 V/ 80.5 A +12Vsb/ 3A – Entrada máx. 1200W/ 200-240V~ o 240Vdc +12 V/ 97 A +12Vsb/ 3A |
Peso | 13 kg |
Ventiladores del sistema | 8x40x40x56mm (23'000rpm) |
Propiedades operativas | Temperatura de funcionamiento: 10 ° C a 35 ° C Humedad de funcionamiento: 8-80 % (sin condensación) Temperatura no operativa: -40 °C a 60 °C Humedad sin funcionamiento: 20%-95% (sin condensación) |
GIGABYTE R181-2A0 Diseño y construcción
Como se indicó, el GIGABYTE R181-2A0 tiene un factor de forma de 1U. En la parte frontal del servidor hay diez bahías para unidades SATA/SAS de 2.5”. A la izquierda están las luces indicadoras, el botón de encendido, el botón de identificación, el botón de reinicio, el botón NMI y un puerto USB 3.0.
La parte trasera del servidor tiene dos fuentes de alimentación a la izquierda, un puerto VGA, dos puertos USB 3.0, dos puertos RJ45, un puerto COM, un puerto MLAN, un botón ID y las tres ranuras de expansión de bajo perfil cerca de la parte superior, así como las dos ranuras OCP cerca de la parte inferior.
Al abrir el servidor, inmediatamente vemos las CPU y la RAM en el medio. Esto brinda a los usuarios un fácil acceso a las tarjetas verticales y a cualquier ranura de expansión que necesiten. Hemos instalado un HBA FC de 16 Gb y dos puertos para conectarnos al almacenamiento compartido, una NIC Mellanox Connect-X 4 de dos puertos y 25 GbE, así como nuestra SSD Memblaze PBlaze5.
Equipo Directivo
El GIGABYTE R181-2A0 tiene su propio software de gestión remota GSM, pero también puede aprovechar la plataforma AMI MegaRAC SP-X para la gestión del servidor BMC. Usaremos el MegaRAC para esta revisión. Para una mirada más profunda a AMI MegaRAC SP-X en un servidor GIGABYTE, consulte nuestro Revisión del servidor GIGABYTE R272-Z32 AMD EPYC Rome.
Desde la pantalla de administración principal, se pueden ver estadísticas rápidas en la página de inicio y ver varias pestañas principales que se ejecutan en el lado izquierdo, que incluyen: Tablero, Sensor, Inventario del sistema, Información de FRU, Registros e informes, Configuración, Control remoto, Redirección de imágenes, Control de energía, y mantenimiento. La primera página es el tablero. Aquí se puede ver fácilmente el tiempo de actividad del BMC, las anulaciones pendientes, los registros de acceso y cuántos problemas están activos, el monitoreo de sensores y las ranuras de las unidades y cuántos eventos han tenido durante las últimas 24 horas y 30 días.
Una vez iniciada, la consola remota brinda a los usuarios acceso remoto al sistema operativo del servidor, que en nuestro ejemplo es una pantalla de carga de Linux. Las ventanas de la consola remota son una herramienta invaluable en un centro de datos donde desea un control local sin tener que transportar un monitor, un teclado y un mouse para hacerlo. Visible en la parte superior derecha de la ventana está la función de imagen de CD que le permite montar ISO desde su sistema local para que sea accesible de forma remota en el servidor para cargar software.
A través de la pestaña de mantenimiento, los usuarios pueden encontrar información del BIOS e información sobre el firmware.
Rendimiento de GIGABYTE R181-2A0
Configuración de GIGABYTE R181-2A0:
- 2 CPU Intel 8280 (28 núcleos, 2.7 GHz)
- 12 x 32GB 2933MHz, 6 DIMM por CPU
- 1 unidad de estado sólido NVMe Memblaze PBlaze6.4 C5 de 926 TB
- VMware ESXi 6.7u3
- CentOS 7 (1908)
Rendimiento de SQL Server
El protocolo de prueba OLTP de Microsoft SQL Server de StorageReview emplea el borrador actual del Benchmark C (TPC-C) del Transaction Processing Performance Council, un benchmark de procesamiento de transacciones en línea que simula las actividades que se encuentran en entornos de aplicaciones complejos. El punto de referencia TPC-C se acerca más que los puntos de referencia de rendimiento sintéticos para medir las fortalezas de rendimiento y los cuellos de botella de la infraestructura de almacenamiento en entornos de bases de datos.
Cada máquina virtual con SQL Server está configurada con dos discos virtuales: un volumen de 100 GB para el arranque y un volumen de 500 GB para la base de datos y los archivos de registro. Desde la perspectiva de los recursos del sistema, configuramos cada VM con 16 vCPU, 64 GB de DRAM y aprovechamos el controlador LSI Logic SAS SCSI. Si bien nuestras cargas de trabajo de Sysbench probadas anteriormente saturaron la plataforma tanto en E/S de almacenamiento como en capacidad, la prueba de SQL busca el rendimiento de la latencia.
Esta prueba utiliza SQL Server 2014 ejecutándose en máquinas virtuales invitadas de Windows Server 2012 R2 y está destacada por Dell's Benchmark Factory for Databases. Si bien nuestro uso tradicional de este punto de referencia ha sido probar grandes bases de datos de escala 3,000 en almacenamiento local o compartido, en esta iteración nos enfocamos en distribuir cuatro bases de datos de escala 1,500 de manera uniforme en nuestros servidores.
Configuración de prueba de SQL Server (por VM)
- Windows Server 2012 R2
- Huella de almacenamiento: 600 GB asignados, 500 GB utilizados
- SQL Server 2014
-
- Tamaño de la base de datos: escala 1,500
- Carga de clientes virtuales: 15,000
- Búfer RAM: 48GB
- Duración de la prueba: 3 horas
- 2.5 horas de preacondicionamiento
- Período de muestra de 30 minutos
Para nuestro punto de referencia de SQL Server transaccional, GIGABYTE obtuvo una puntuación total de 12,643.8 TPS con máquinas virtuales individuales que van desde 3,160.1 TPS a 3,161.5 TPS.
Para la latencia promedio de SQL Server, el servidor tuvo una puntuación total de 2.3 ms con máquinas virtuales que oscilaron entre 1 ms y 3 ms.
Rendimiento Sysbench MySQL
Nuestro primer punto de referencia de la aplicación de almacenamiento local consiste en una base de datos OLTP MySQL de Percona medida a través de SysBench. Esta prueba mide el promedio de TPS (transacciones por segundo), la latencia promedio y también la latencia promedio del percentil 99.
Cada máquina virtual de Sysbench está configurada con tres discos virtuales: uno para arranque (~92 GB), uno con la base de datos preconstruida (~447 GB) y el tercero para la base de datos bajo prueba (270 GB). Desde la perspectiva de los recursos del sistema, configuramos cada VM con 16 vCPU, 60 GB de DRAM y aprovechamos el controlador LSI Logic SAS SCSI.
Configuración de prueba de Sysbench (por VM)
- CentOS 6.3 de 64 bits
- Percona XtraDB 5.5.30-rel30.1
-
- Tablas de base de datos: 100
- Tamaño de la base de datos: 10,000,000
- Subprocesos de la base de datos: 32
- Búfer RAM: 24GB
- Duración de la prueba: 3 horas
- 2 horas preacondicionamiento 32 hilos
- 1 hora 32 hilos
Con Sysbench OLTP, el GIGABYTE R181-2A0 obtuvo una puntuación total de 11,096.4 TPS con máquinas virtuales individuales funcionando entre 1,375 TPS y 1,422.72 TPS.
Para la latencia promedio de Sysbench, el servidor tuvo una puntuación agregada de 23.1 ms con máquinas virtuales individuales ejecutándose de 22.5 ms a 23.3 ms.
Para nuestra latencia en el peor de los casos (percentil 99), GIGABYTE obtuvo una puntuación total de 40.3 ms con máquinas virtuales individuales funcionando de 40.2 ms a 40.4 ms.
Análisis de carga de trabajo de VDBench
Cuando se trata de comparar matrices de almacenamiento, las pruebas de aplicaciones son las mejores y las pruebas sintéticas ocupan el segundo lugar. Si bien no es una representación perfecta de las cargas de trabajo reales, las pruebas sintéticas ayudan a los dispositivos de almacenamiento de referencia con un factor de repetibilidad que facilita la comparación de manzanas con manzanas entre las soluciones de la competencia. Estas cargas de trabajo ofrecen una gama de diferentes perfiles de prueba que van desde pruebas de "cuatro esquinas", pruebas comunes de tamaño de transferencia de bases de datos, así como capturas de seguimiento de diferentes entornos VDI. Todas estas pruebas aprovechan el generador de cargas de trabajo vdBench común, con un motor de secuencias de comandos para automatizar y capturar resultados en un gran clúster de pruebas informáticas. Esto nos permite repetir las mismas cargas de trabajo en una amplia gama de dispositivos de almacenamiento, incluidos arreglos flash y dispositivos de almacenamiento individuales.
perfiles:
- Lectura aleatoria 4K: 100 % de lectura, 128 subprocesos, 0-120 % de iorate
- Escritura aleatoria 4K: 100 % de escritura, 64 subprocesos, 0-120 % de iorate
- Lectura secuencial de 64 K: 100 % de lectura, 16 subprocesos, 0-120 % de iorate
- Escritura secuencial de 64 K: 100 % de escritura, 8 subprocesos, 0-120 % de iorate
- Base de datos sintética: SQL y Oracle
- Trazas de clones vinculados y clones completos de VDI
Con lectura aleatoria de 4K, el GIGABYTE R181-2A0 comenzó fuerte con un pico de 706,664 IOPS con una latencia de 178.6µs.
Para la escritura aleatoria de 4K, el servidor comenzó con 58,406 33.9 IOPS a solo 100 µs y se mantuvo por debajo de los 561,280 µs hasta cerca de su pico, que resultó ser 213.3 XNUMX IOPS y XNUMX µs.
El siguiente paso son las cargas de trabajo secuenciales en las que analizamos 64k. Para lectura de 64K, GIGABYTE alcanzó un máximo de 82,271 IOPS o 5.1 GB/s con una latencia de 387.4 µs.
Las escrituras secuenciales de 64 43 vieron el golpe del servidor de alrededor de 2.7 182 IOPS o aproximadamente XNUMX GB/s con una latencia de XNUMX µs antes de dejar algunas.
Nuestro próximo conjunto de pruebas son nuestras cargas de trabajo de SQL: SQL, SQL 90-10 y SQL 80-20. A partir de SQL, el servidor alcanzó un máximo de 220,712 143 IOPS con una latencia de XNUMX µs.
Para SQL 90-10, vimos un rendimiento máximo de 230,152 137 IOPS con una latencia de XNUMX µs.
SQL 80-20 continuó con el sólido rendimiento con un pico de 229,724 136 IOPS con XNUMX µs de latencia.
Lo siguiente son nuestras cargas de trabajo de Oracle: Oracle, Oracle 90-10 y Oracle 80-20. A partir de Oracle, el servidor alcanzó un máximo de 246,191 142 IOPS con una latencia de XNUMX µs.
Con Oracle 90-10, GIGABYTE pudo alcanzar 172,642 125.5 IOPS con una latencia de XNUMX µs.
Oracle 80-20, el último punto de referencia de Oracle, vio que el servidor alcanzó un pico de 178,108 IOPS a 121 µs de latencia.
A continuación, cambiamos a nuestra prueba de clonación de VDI, completa y vinculada. Para VDI Full Clone (FC) Boot, el GIGABYTE R181-2A0 alcanzó un máximo de 196,719 174 IOPS con una latencia de XNUMX µs.
Para el inicio de sesión inicial de VDI FC, el servidor alcanzó un máximo de 150,518 190 IOPS con XNUMX µs de latencia.
VDI FC Monday Login vio el pico del servidor en 94,813 IOPS con una latencia de 161.3µs.
Cambiando a VDI Linked Clone (LC) Boot, GIGABYTE pudo alcanzar 89,269 IOPS con una latencia de 177.4µs.
Con el inicio de sesión inicial de VDI LC, el servidor alcanzó 50,860 148 IOPS a XNUMX µs.
Finalmente, VDI LC Monday Login vio que GIGABYTE alcanzó 75,850 IOPS a una latencia de 201.3µs.
Conclusión
El GIGABYTE R181-2A0 es otro servidor que se basa en los procesadores escalables Xeon de segunda generación de Intel y todos los beneficios que brindan las CPU. Además de estar centrado en Intel Xeon Scalable, este servidor 1U es muy flexible. Aunque solo tiene 1U, el servidor puede albergar dos CPU escalables Intel Xeon, 24 DIMM de RAM, 10 bahías de unidades de 2.5" para unidades SATA o SAS, y tiene tres ranuras de expansión PCIe y dos ranuras intermedias OCP. El servidor está destinado a ser un caballo de batalla de aplicaciones conectado a almacenamiento compartido, o tal vez casos de uso de HPC.
Para el rendimiento, ejecutamos nuestro análisis de carga de trabajo de la aplicación y nuestras pruebas VDBench. Si bien las bahías de unidades frontales no son compatibles con NVMe, las ranuras de expansión sí lo son y agregamos una unidad NVMe para maximizar el potencial de rendimiento del servidor. En nuestro punto de referencia de SQL Server, el servidor tenía puntajes agregados de 12,642.8 TPS y una latencia promedio de 2.3ms. Para Sysbench, vimos puntajes agregados de 11,810 23.1 TPS, una latencia promedio de 40.3 ms y una latencia en el peor de los casos de XNUMX ms.
Para VDbench, el servidor pequeño siguió alcanzando cifras bastante buenas, destacando 707 4 IOPS para lectura de 561 4, 5.1 64 IOPS para escritura de 2.7 64, 181 GB/s para lectura de 2 0 y 221 GB/s para escritura de 230 90. En nuestras pruebas de SQL, el R10-230A80 pudo alcanzar picos de 20 246 IOPS, 173 90 IOPS en SQL 10-178 y 80 20 IOPS en SQL 100-197. Para Oracle, los números fueron 151 XNUMX IOPS, XNUMX XNUMX IOPS en Oracle XNUMX-XNUMX y XNUMX XNUMX IOPS en Oracle XNUMX-XNUMX. En nuestras pruebas de clones de VDI, el número comenzó a desvanecerse un poco, pero se mantuvo por encima de XNUMX XNUMX IOPS en el arranque de VDI FC (XNUMX XNUMX IOPS) y el inicio de sesión inicial de VDI FC (XNUMX XNUMX IOPS).
Para aquellos que buscan mucha flexibilidad en un factor de forma compacto, no necesitan buscar más allá del GIGABYTE R181-2A0.
Interactuar con StorageReview
Boletín informativo | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed