L'iXsystems Titan iX-316J è uno scaffale di espansione di archiviazione JBOD da 16 alloggiamenti da 3.5″. Il JBOD è diventato un appuntamento fisso del Laboratorio di analisi dello storage, consentendoci di connettere direttamente unità SATA o SAS a un sistema di elaborazione host tramite l'espansore SAS LSI 9207-8e. L'iX-316J può essere utilizzato in una varietà di casi d'uso, che vanno dall'accettare fino a 64TB di unità SATA, fino alle unità più veloci da 2.5″ 10K e 15K, nel caso in cui l'utente scelga di seguire questa strada. In questa recensione esamineremo tre diversi set di dischi rigidi, illustrando chiaramente i compromessi tra prestazioni e capacità che si verificano con i moderni dischi rigidi aziendali.
L'iXsystems Titan iX-316J è uno scaffale di espansione di archiviazione JBOD da 16 alloggiamenti da 3.5″. Il JBOD è diventato un appuntamento fisso del Laboratorio di analisi dello storage, consentendoci di connettere direttamente unità SATA o SAS a un sistema di elaborazione host tramite l'espansore SAS LSI 9207-8e. L'iX-316J può essere utilizzato in una varietà di casi d'uso, che vanno dall'accettare fino a 64TB di unità SATA, fino alle unità più veloci da 2.5″ 10K e 15K, nel caso in cui l'utente scelga di seguire questa strada. In questa recensione esamineremo tre diversi set di dischi rigidi, illustrando chiaramente i compromessi tra prestazioni e capacità che si verificano con i moderni dischi rigidi aziendali.
Il concetto di scaffale di archiviazione, o JBOD, è uno dei più basilari nell'architettura di archiviazione. Lo chassis ospita essenzialmente le unità, che si collegano a una macchina host tramite cavo SAS e HBA nell'host. Questo tipo di soluzione continua ad essere popolare laddove gli utenti aziendali desiderano mantenere lo storage locale rispetto all'host, ma forse hanno esaurito gli alloggiamenti per unità disponibili o hanno altri requisiti specifici e non hanno bisogno di una SAN completa con i suoi propri controller di archiviazione. Infatti, guardando al futuro, mostreremo queste stesse configurazioni di dischi rigidi abbinati a soluzioni di caching, per mostrare come flash e software possano apportare vantaggi a grandi array di dischi rigidi in un ambiente aziendale. I casi d'uso per JBOD continuano ad espandersi con nuove tecnologie e una potente potenza di elaborazione sul lato host.
Specifiche iXsystems Titan iX-316J
- Fattore di forma: chassis di archiviazione 3U che supporta fino a 16 dischi rigidi
- Dimensioni: 17.2 pollici di larghezza x 5.2 pollici di altezza x 25.5 pollici di profondità
- Ventole: gruppo ventola PWM 6 x 40×56, 4 pin
- Guide di montaggio: set di guide, rapido/rapido
- Alloggiamenti per dischi rigidi: 16 SAS/SATA hot-swap da 3.5" – Le unità SATA richiedono schede aggiuntive interposer
- Supporto RAID: supportato tramite il controller RAID dell'unità principale
- Conformità SAS2
- Supporto 6Gb
- Connettività SAS: compatibile con qualsiasi adattatore bus host SAS, SAS2.0 o SAS3.0
- 2 connettori SFF-8088
- Alimentazione: alimentatore ridondante ad alta efficienza da 720 W con PMBus
Panoramica video
Costruire e disegnare
L'iXsystems Titan iX-316J è un contenitore per montaggio su rack 3U con 16 alloggiamenti per unità da 3.5" accessibili frontalmente. Offre un'interfaccia SAS HA attivo-attivo per connettersi a due host, nonché una porta di espansione per collegare più unità JBOD. Supporta nativamente sia unità da 3.5″ che da 2.5″, attraverso l'uso di caddy per unità universali. Sebbene siano supportate sia le unità SAS che SATA, le unità SATA devono utilizzare un adattatore per fornire loro funzionalità a doppia porta. La parte anteriore del Titan 316J è dotata di un interruttore di alimentazione, nonché di spie di interfaccia che mostrano quando le connessioni sono attive e l'unità è online. Questo particolare chassis è stato progettato pensando sia al JBOD che ai compiti del server di archiviazione, con alcune luci non collegate nella nostra configurazione.
Il retro dell'iXsystems Titan iX-316J è molto semplice, poiché l'unità non contiene alcuna interfaccia di elaborazione che potresti trovare in un server. Le uniche connessioni a questa unità sono due alimentatori e quattro connessioni SAS. Il collegamento principale all'espansore interno è una connessione SFF-4 a 8088 canali, che fornisce all'unità una velocità di trasferimento di picco di circa 2,400 MB/s. Una porta su ciascun lato è dedicata alla connessione al server che lo ospiterà, mentre le altre due servono per connettere il 316J ad un altro scaffale JBOD.
Poiché l'unità e il backplane sono progettati per ambienti HA, iXsystems ci ha fornito gli adattatori LSI SATA-to-SAS che abbiamo utilizzato durante il test del JBOD con dischi rigidi SATA. I contenitori per unità sono stati progettati pensando a questi adattatori, quindi l'installazione è stata un gioco da ragazzi.
Per un'installazione su rack rapida e semplice, iXsystems include un kit di guide scorrevoli con Titan iX-316J JBOD. L'installazione ha richiesto solo pochi minuti, poiché le guide si sono agganciate in posizione nel nostro rack senza l'uso di attrezzi. Una volta installata, estendere le guide di ricezione, installare le guide di montaggio sul lato del telaio e far scorrere l'unità in posizione.
Test di background e comparabili
L'iXsystems Titan 316J JBOD supporta dischi rigidi SATA e SATA da 3.5" e 2.5". Per questa recensione abbiamo utilizzato sia unità SATA da 4 TB a 7,200 giri/min di grande capacità con adattatori SAS, sia unità SAS da 2.5" da 10 e 15 giri/min.
Dischi rigidi utilizzati in questa recensione:
- Toshiba MK01GRRB (SAS da 147 GB, 15,000 giri/min, 6.0 Gb/s)
- Toshiba MBF2600RC (SAS da 600 GB, 10,000 giri/min, 6.0 Gb/s)
- Hitachi Ultrastar 7K4000 (4 TB, 7,200 giri/min, 6.0 Gb/s SATA)
Tutti i dispositivi di storage aziendali vengono sottoposti a benchmark sulla nostra piattaforma di test aziendale di prossima generazione basata su a Lenovo Think Server RD630. Il ThinkServer RD630 è configurato con:
- 2 Intel Xeon E5-2620 (2.0 GHz, cache da 15 MB)
- Windows Server 2008 R2 SP1 a 64 bit, Windows Server 2012 a 64 bit e CentOS 6.3 a 64 bit
- Chipset Intel C602
- Memoria: RDIMM registrati DDR16 da 2 GB (8 x 1333 GB) a 3 MHz
- HBA LSI 9207 SAS/SATA da 6.0 Gb/s
Analisi sintetica del carico di lavoro aziendale
Il nostro processo di benchmarking dello storage aziendale inizia con un'analisi delle prestazioni dell'unità durante un'accurata fase di precondizionamento. Ciascuno degli array di dischi rigidi comparabili è configurato in RAID10, autorizzato alla sincronizzazione completa e quindi testato con un carico pesante di 16 thread con una coda eccezionale di 16 per thread fino al nostro carico leggero di 2 thread con una coda eccezionale di 2 per filo.
Attributi prestazionali che misuriamo nei nostri carichi di lavoro casuali:
- Throughput (aggregato IOPS di lettura+scrittura)
- Latenza media (latenza di lettura+scrittura mediata insieme)
- Latenza massima (latenza di picco in lettura o scrittura)
- Deviazione standard della latenza (deviazione standard di lettura e scrittura mediata insieme)
La nostra analisi sintetica del carico di lavoro aziendale comprende sei profili, alcuni basati su attività del mondo reale. Questi profili sono stati sviluppati per facilitare il confronto con i nostri benchmark precedenti e con valori ampiamente pubblicati come la velocità massima di lettura e scrittura di 4K e 8K 70/30, comunemente utilizzata per le unità aziendali. Abbiamo incluso anche due carichi di lavoro misti legacy, il tradizionale File Server e il Webserver, ciascuno dei quali offre un'ampia gamma di dimensioni di trasferimento.
- Sequenziale
- 8K
- 100% di lettura o 100% di scrittura
- 100%8K
- 128K
- 100% di lettura o 100% di scrittura
- 100%128K
- 8K
- Random
- 4K
- 100% di lettura o 100% di scrittura
- 100%4K
- 8 K 70/30
- 70% leggi, 30% scrivi
- 100%8K
- File server
- 80% leggi, 20% scrivi
- 10% 512b, 5% 1k, 5% 2k, 60% 4k, 2% 8k, 4% 16k, 4% 32k, 10% 64k
- webserver
- 100% letto
- 22% 512b, 15% 1k, 8% 2k, 23% 4k, 15% 8k, 2% 16k, 6% 32k, 7% 64k, 1% 128k, 1% 512k
- 4K
Il primo test che esaminiamo quando misuriamo le prestazioni dell'iXsystems Titan iX-316J è la lettura e scrittura sequenziale di 8K. In questo test, in cui entrano in gioco sia la velocità del mandrino che la densità dell'area, l'Hitachi Ultrastar 7,200K7 RAID4000 da 10 giri/min ha offerto la velocità di lettura 8K più veloce, misurando 911 MB/s, mentre il Toshiba 15K RAID10 ha misurato 811 MB/s e il Toshiba 10K RAID10 ha misurato 612 MB/sec. Confrontando le velocità di scrittura, il RAID15 da 10K ha misurato 186MB/s, mentre il RAID10 da 10K ha misurato 178MB/s e il RAID7.2 da 10K ha misurato 82MB/s.
Il nostro prossimo test sequenziale ha misurato la velocità di trasferimento di blocchi di grandi dimensioni. In questo test l'array SAS da 15K ha misurato 1,535 MB/s in lettura e 839 MB/s in scrittura, con l'array SATA da 7.2K che ha misurato 1,361 MB/s in lettura e 912 MB/s in scrittura e l'array SAS da 10K è arrivato ultimo con 1,142 MB/s lettura e 540 MB/s in scrittura.
Per i restanti benchmark di questa recensione, passiamo dai test sequenziali a quelli completamente casuali. Dall'iX-316J siamo stati in grado di ottenere 6,162 IOPS in lettura 4K e 3,474 IOPS in scrittura 4K da unità SAS da 15, 4,379 IOPS in lettura 4K e 2,361 IOPS in scrittura 4K da unità SAS da 10 e 2,218 IOPS in lettura 4K e 1,069 IOPS in scrittura 4K da 7.2. Unità K SATA.
Confrontando la latenza media nel nostro test casuale 100K al 4%, quando l'iXsystems Titan iX-316J è dotato di unità SAS da 15K, i tempi di risposta sono stati di appena 41 ms in lettura e 73 ms in scrittura. Con unità SATA da 7.2K di storage di massa più grandi installate, la latenza di lettura è aumentata a 115 ms e la latenza di scrittura è salita a 239 ms con una profondità di coda effettiva di 256.
Confrontando la latenza massima, gli array da 10K e 15K hanno offerto i tempi di risposta di picco più bassi, mentre l'array da 7.2K ha ottenuto i tempi più alti.
Confrontando la coerenza della latenza nel nostro iX-316J, l'array SAS da 15K ha offerto la deviazione standard di latenza in lettura e la deviazione standard di scrittura più basse. Si sono verificati dossi lineari che scendevano a una velocità del mandrino di 10K o 7.2K, il che dimostra che è logico comprendere il carico di lavoro e scegliere le unità più sensate dati i requisiti.
Passando al nostro profilo 8K 70/30 con una scalabilità del carico di lavoro da 2T/2Q a 16T/16Q, abbiamo misurato una velocità I/O di picco di 4,803 IOPS dall'array SAS RAID15 da 10K, 3,600 IOPS dall'array da 10K e 1,673 IOPS da l'array da 7.2K.
Se il requisito era mantenere la latenza al di sotto di 20 ms, il punto di velocità degli array SAS da 10 e 15 veniva trovato con una profondità di coda effettiva pari o inferiore a 32. In questa impostazione il throughput massimo misurava 2,686 IOPS dall'array SAS da 15 e 2,055 IOPS dall'array SAS da 10. Mantenendo gli stessi requisiti per l'array SATA da 7.2K, il suo punto debole era una profondità di coda effettiva di 8 o inferiore, che offre un throughput di picco di 460 IOPS.
Per ciascuna velocità del mandrino, mantenendo la profondità effettiva della coda al di sotto di 32, i tempi di risposta massimi sono rimasti al minimo, con l'impatto maggiore osservato sull'array da 7.2 KB.
In termini di coerenza della latenza, sia le unità SAS da 10 che quelle da 15 hanno offerto prestazioni simili a profondità di coda inferiori, con il vantaggio dato alle unità SAS da 15 alle profondità di coda effettive più elevate.
Passando al carico di lavoro del nostro file server, l'impatto della velocità del mandrino nel nostro iX-16J a 316 alloggiamenti è diventato più evidente. A una profondità di coda effettiva massima di 256, l'array SAS da 15 ha misurato 4,943 IOPS mentre l'array SAS da 10 ha misurato 3,652 IOPS. L'array da 7.2K offriva solo 1,296 IOPS al massimo.
Confrontando la latenza media tra ciascun tipo di unità nel nostro JBOD a 16 alloggiamenti, le unità SAS da 10 e 15 hanno offerto le migliori prestazioni nel nostro carico di lavoro File Server, con l'array da 7.2 che ha avuto una latenza più elevata in quest'area. In termini di prestazioni ottimali rispetto alla latenza, gli array SAS hanno offerto le migliori prestazioni senza impantanarsi con un'elevata latenza a profondità di coda inferiori a 32 per gli array da 10K e 64 per gli array da 15K.
Confrontando i tempi di risposta di picco, due array SAS hanno mantenuto la latenza inferiore a 500 ms con profondità di coda effettive pari a 64 e inferiori. Dall'array SATA da 7.2 KB, i carichi effettivi di profondità della coda superiori a 32 hanno causato un aumento drammatico dei tempi di risposta di picco.
Confrontando la deviazione standard della latenza nel nostro profilo File Server, abbiamo riscontrato prestazioni simili sia dai nostri array da 10K che da 15K, dove l'array da 15K aveva il vantaggio alla massima profondità di coda effettiva. In questo particolare profilo di trasferimento, i dischi rigidi da 7.2K più lenti hanno avuto più difficoltà a mantenere costante la latenza mentre il carico aumentava oltre una velocità effettiva di 32.
Il nostro ultimo profilo che copre l'attività simulata del server Web è completamente di sola lettura. In questa impostazione, i dischi rigidi da 7,200 giri/min sono riusciti a tenere il passo meglio di quanto avevano fatto nei test precedenti con attività di scrittura mescolata. Al massimo numero di thread e code, abbiamo misurato una velocità I/O di picco di 5,786 IOPS con il nostro array SAS da 15. , 4,068 IOPS con il nostro array SAS da 10 e 2,081 IOPS con l'array SATA da 7.2.
Gli array SAS da 10K e 15K dell'iXsystems Titan iX-316J sono stati in grado di tenere sotto controllo la latenza media con profondità di coda effettive inferiori a 64, con l'array da 7.2K che ha un limite inferiore di 32 prima che la latenza media aumentasse in modo significativo.
La latenza massima nel nostro test del server Web ha prodotto risultati simili a quelli della sezione sulla latenza media, dove i tempi di risposta di picco sono stati mantenuti al minimo con profondità di coda effettive inferiori a 64 o 32 (rispettivamente per gli array SAS da 10/15K e l'array SATA da 7.2K).
Senza attività di scrittura, l'array SAS da 15 ha avuto la migliore deviazione standard di latenza nell'intero intervallo di livelli di thread e coda, seguito dagli array da 10 e poi da 7.2. Lo stesso vale per lo sweet spot, con la migliore coerenza al di sotto di EQD64 per gli assi più veloci e EQD32 per l'array da 7.2K.
Conclusione
Ci sono molti casi in cui un JBOD headless ha perfettamente senso per le crescenti esigenze di archiviazione. L'iXsystems Titan iX-316J fornisce uno chassis 3U facile da configurare che con i dischi rigidi da 4 TB può supportare una capacità totale di 64 TB. Ovviamente, come abbiamo dimostrato, si adatta facilmente alle unità da 2.5", anche se in questo caso si rinuncia ai vantaggi in termini di densità rispetto alle opzioni SFF iXsystems 2U a 24 alloggiamenti. Quando si tratta di compatibilità, Titan iX-316J può connettersi sia agli HBA che alle schede RAID tramite una connessione SFF-8088 standard del settore. L'unico svantaggio, che si applicherebbe solo se si installassero SSD in questo array, è che una singola connessione SAS a 4 canali è limitata a 2,400 MB/s su SAS 6.0 Gb/s. Questo limite non limiterà le unità platter, ma le unità flash che raggiungono il picco di 500 MB/s ciascuna richiederebbero più connessioni miniSAS per sfruttare tutto il loro potenziale.
Gli array di dischi rigidi da 10K e 15K hanno offerto il throughput maggiore e la latenza più bassa nei nostri carichi di lavoro misti ad attività casuale. Nei carichi di lavoro sequenziali l'array RAID7.2 da 10K ha offerto la massima velocità di lettura di 8K e di scrittura di 128K. Per decidere quale sia il miglior disco rigido per una particolare applicazione, gli acquirenti aziendali devono valutare i requisiti di capacità rispetto alle esigenze di prestazioni e quindi tenere conto dei costi. Le unità da 7.2K offrono la migliore capacità per dollaro, ma non possono eguagliare le prestazioni I/O delle unità più veloci da 10K e 15K. Per determinate esigenze, come i backup o l'archiviazione di massa, l'accesso casuale non è così importante, rendendo i dischi rigidi da 7.2K più attraenti. In entrambe le situazioni, tuttavia, l'iXsystems Titan iX-316J ha funzionato abbastanza bene, indipendentemente dalle dimensioni dell'unità o dall'interfaccia.
Vantaggi
- Facile implementazione nell'infrastruttura HA
- Funziona sia con dischi rigidi SAS che SATA
- Compatibile con tutto ciò che supporta JBOD su SFF-8088
- Include doppi alimentatori
Svantaggi
- Supporto di throughput insufficiente per gli SSD in determinati scenari
Conclusione
iXsystems Titan iX-316J è un sistema di storage headless semplice da implementare che ha un'ampia varietà di casi d'uso per l'azienda. Sebbene lo storage diretto non debba essere complesso, deve funzionare in modo affidabile, cosa che l'iX-316J ha fatto su tre set di dischi rigidi SATA e SAS.
Product Page
Discuti questa recensione