Reti di archiviazione (SAN) sfruttare le architetture di rete in stile bus per accelerare e decentralizzare l'accesso allo storage aziendale. L'accelerazione dell'accesso allo storage implica quindi l'accelerazione delle prestazioni della SAN nonché del supporto di storage stesso, rendendone fondamentale l'attrezzatura Laboratorio di test aziendale di StorageReview con una varietà di opzioni di interconnessione nelle tre principali famiglie di protocolli di rete: Ethernet, InfiniBand e Fibre Channel. Queste opzioni di interconnessione forniscono i mezzi per eseguire benchmark completi basati su condizioni paragonabili a quelle effettivamente sperimentate dagli amministratori SAN sul campo.
Reti di archiviazione (SAN) sfruttare le architetture di rete in stile bus per accelerare e decentralizzare l'accesso allo storage aziendale. L'accelerazione dell'accesso allo storage implica quindi l'accelerazione delle prestazioni della SAN nonché del supporto di storage stesso, rendendone fondamentale l'attrezzatura Laboratorio di test aziendale di StorageReview con una varietà di opzioni di interconnessione nelle tre principali famiglie di protocolli di rete: Ethernet, InfiniBand e Fibre Channel. Queste opzioni di interconnessione forniscono i mezzi per eseguire benchmark completi basati su condizioni paragonabili a quelle effettivamente sperimentate dagli amministratori SAN sul campo.
Gli array di storage all-flash e gli array ibridi sono le tecnologie di storage che hanno spinto allo sviluppo di interconnessioni più veloci, ma anche gli amministratori di pool di dischi rigidi di grandi dimensioni traggono vantaggio dal prestare molta attenzione alle prestazioni e all'affidabilità della SAN. Oggi, l'accesso alle piattaforme di interconnessione dell'infrastruttura convergente può aiutare a evitare di rimanere bloccati in un protocollo o livello di collegamento fisico, ma le scelte di interconnessione effettuate durante l'architettura delle reti di storage possono influenzare le capacità e le prestazioni della SAN per gli anni a venire.
Un'ampia varietà di opzioni per l'implementazione SAN, inclusa la scelta di cavi e connettori, può rendere difficile individuare a prima vista quali combinazioni e configurazioni di interconnessione siano più adatte per un particolare dispositivo o applicazione. Questa panoramica delle apparecchiature di rete dell'Enterprise Test Lab inizierà con una discussione di ciascuno dei tre protocolli di interconnessione più comuni (Ethernet, InfiniBand e Fibre Channel) come panoramica delle opzioni per architetti e tecnici SAN. Analizzeremo quindi e illustreremo le principali opzioni del livello di collegamento fisico disponibili per i benchmark aziendali di StorageReview.
Ethernet
Il laboratorio StorageReview è dotato di hardware di commutazione Ethernet di Netgear e Mellanox che ci consente di implementare opzioni di connettività da 1GbE a 40GbE. Per i benchmark 1GbE utilizziamo gli switch prosumer Netgear ProSafe. La nostra connettività 10GbE è alimentata da a Netgear ProSafe Plus XS708E utilizzando connettori 8P8C e a Mellanox SX1036 10/40Gb, con cavi fan-out che separano quattro porte Ethernet SFP+ da una singola porta QSFP.
Sebbene il termine Ethernet sia spesso usato come sinonimo di cablaggio in rame a doppino intrecciato che presenta un connettore 8P8C (comunemente indicato come connettore RJ45), Ethernet si riferisce a uno standard di comunicazione di rete che può essere impiegato su collegamenti fisici sia in rame che in fibra ottica. Per tratte relativamente brevi, i cavi in rame offrono spesso uno standard interessante in termini di rapporto prezzo-prestazioni per le applicazioni Ethernet, ma con l'aumento delle velocità di trasmissione dei dati richieste e delle distanze di trasmissione, il cavo in fibra ottica inizia a offrire un vantaggio competitivo rispetto al rame.
Vediamo nuovi equipaggiamenti con Ethernet su tre livelli:
- 1GbE – Attualmente, nel 2013, la maggior parte delle apparecchiature domestiche e prosumer sono progettate con Gigabit Ethernet 1000BASE-T integrato, insieme ad apparecchiature per workstation aziendali, NAS/SAN per PMI e interfacce LAN per server integrate. Stiamo iniziando a vedere sempre più standard di spedizione Ethernet a doppino intrecciato 10GBASE-T su server e hardware di archiviazione, ma per ora le velocità gigabit sono di fatto lo standard minimo per la connettività di rete cablata.
- 10GbE – Nel primo decennio degli anni 2000, le velocità di 10 gigabit richiedevano fibra ottica o Twinax a breve distanza tramite connettori di tipo SPF. Il rame e il connettore 8P8C si stanno ora facendo strada nelle architetture SAN grazie alla crescente disponibilità di hardware di rete 10GBASE-T, che consente velocità di dieci gigabit su cat6 e cat7. Il 10GbE su doppino intrecciato in rame ha reso 10GBASE-T una nuova scelta conveniente per l'interconnessione di storage ad alta velocità, sebbene la fibra ottica domini ancora il mercato. Nostro Interruttore Netgear M7100 dispone di ventiquattro porte 10GBase-T e 4 porte SFP+, mentre il nostro Netgear ProSafe Plus XS708E dispone di otto porte 10GbE e una porta SFP+ in fibra 10G condivisa.
- 40GbE – Tramite QSFP+ che consolida quattro corsie SFP+ in un unico connettore, siamo in grado di ottenere la connettività 40GbE spesso necessaria per gli array di storage moderni più veloci. Hardware dell'infrastruttura convergente, come Mellanox SX6036 utilizziamo in laboratorio, fornisce opzioni per InfiniBand 40GbE o 56Gb/s a seconda della configurazione. UN Switch Ethernet Mellanox SX1036 10/40Gb funge da spina dorsale per la rete del laboratorio.
InfiniBand
InfiniBand è diventato ampiamente disponibile all'inizio degli anni 2000 con i produttori di interruttori Mellanox e QLogic che hanno portato avanti lo standard. InfiniBand offre cinque livelli di prestazioni del collegamento: single data rate (SDR) a 2.5 Gb/s per corsia, double data rate (DDR) a 5 Gb/s, quad data rate (QDR) a 10 Gb/s, quattordici data rate (FDR) a 14 Gb/s e velocità dati avanzata (EDR) a 26 Gb/s per corsia unidirezionale.
InfiniBand può essere utilizzato con cavi in rame o fibra ottica a seconda delle prestazioni richieste e della distanza richiesta per l'interconnessione. Oggi, i connettori SFF-8470, spesso chiamati semplicemente connettori InfiniBand, comunemente terminano i cavi insieme ai connettori di tipo SFP. Il laboratorio di test StorageReview Enterprise ospita un tessuto Mellanox InfiniBand da 56 Gb/s utilizzato per l'analisi comparativa dei dispositivi di archiviazione flash, incluso il nostro Database MarkLogic NoSQL punto di riferimento.
Il benchmark MarkLogic NoSQL mette a confronto le prestazioni di archiviazione su una varietà di dispositivi, tra cui acceleratori di applicazioni PCIe, gruppi di SSD e array di HDD di grandi dimensioni. Utilizziamo un tessuto Mellanox InfiniBand alimentato dal ns MellanoxSX6036 per fornire le interconnessioni per questi benchmark grazie al throughput di rete di 56 Gb/s e al supporto per i protocolli iSER (iSCSI-RDMA) e SRP (SCSI RDMA). iSER e SRP sostituiscono lo stack TCP iSCSI con RDMA (Remote Direct Memory Access), che consente una maggiore efficienza in un ambiente cluster consentendo al traffico di rete di bypassare le CPU dei sistemi e consentendo la copia dei dati dalla memoria dei sistemi di invio direttamente al memoria dei sistemi riceventi. Queste funzionalità sono trasferite anche su Ethernet con il protocollo iSCSI over RDMA (iSER).
Avere questo tessuto InfiniBand in posizione, insieme a a EchoStreams GridStreams Server a quattro nodi e un set standardizzato di benchmark MarkLogic NoSQL, ci consente di promuovere nuovi dispositivi di archiviazione ad alte prestazioni come Acceleratore di applicazioni PCIe Micron P320h da 2.5″ per vedere come le specifiche del produttore si confrontano con le prestazioni in condizioni reali. Entro la fine dell’anno aggiungeremo un nuovo benchmark VMware che sfrutta anche InfiniBand SAN di StorageReview.
Protocollo Fibre Channel
Alla fine degli anni '1990, Fibre Channel era il protocollo di interconnessione dominante per le reti SAN (Storage Area Network) e di calcolo ad alta velocità. Creando un po' di confusione, Fibre Channel viene utilizzato come abbreviazione di Fibre Channel Protocol, un protocollo di comunicazione seriale basato su canali che viene spesso implementato su cavi in rame e in fibra ottica. Il livello di collegamento fisico di Fibre Channel consente di instradare un singolo percorso di comunicazione attraverso più di un tipo di tecnologia di collegamento, inclusa la combinazione di segmenti in rame e fibra ottica, per raggiungere la sua destinazione.
Il laboratorio StorageReview incorpora connettività FC sia da 8 Gb/s che da 16 Gb/s tramite a Canale in fibra ottica QLogic SB5800V da 8 Gb interruttore e a Broccato 6510 16Gb FC interruttore. Per le applicazioni di infrastruttura convergente, utilizziamo HBA QLogic a doppia porta da 16 Gb e in altre situazioni utilizziamo anche HBA Fibre Channel Emulex da 16 Gb a porta singola. Una differenza fondamentale tra le apparecchiature Fibre Channel e altre infrastrutture SAN riguarda i prezzi e le licenze. Mentre gli switch Ethernet sono generalmente disponibili con un determinato numero di porte (comunemente 12, 24 o 48) che sono tutte attive al momento dell'acquisto, è comune per i produttori FC utilizzare un modello di licenza per porta, in cui uno switch Fibre Channel può presentare 48 porte fisiche ma include solo licenze in bundle per 12 o 24 di queste con l'acquisto iniziale. Porte aggiuntive e talvolta altre funzionalità vengono abilitate in base alle necessità acquistando licenze aggiuntive.
Fibre Channel è il primo protocollo SAN ad essere supportato La tecnologia Mt. Rainier di QLogic, che combina gli HBA QLogic SAN con storage flash e software basati su server per fornire caching indipendente dal sistema operativo tramite una scheda PCIe installata nei server. Mt. Rainier è incentrato su una scheda adattatore QLogic PCIe basata su HBA per la gestione della logica e della cache, nonché per lo storage stesso, che si collega quindi al livello flash. Il risultato netto è una cache locale per il server di calcolo tramite una scheda di interfaccia che sarebbe stata comunque necessaria per la connettività SAN Fibre Channel. Per le applicazioni in esecuzione su un server o un cluster, la cache assomiglia all'archiviazione SAN, ma è più veloce da accedere.
Questo approccio, che sfrutta l'infrastruttura SAN per fornire caching locale e a livello di cluster, dimostra il significativo spazio di innovazione nell'attuale generazione di tecnologia Fibre Channel. L'installazione di più di uno degli adattatori FabricCache di QLogic in un cluster consente la condivisione della cache ovunque; l'integrazione con la struttura Fibre Channel consente di sfruttare la cache su scheda sia su scala locale che su scala cluster.
Componenti Fisici
Cavo in rame a doppino intrecciato (cavi Cat)
Il cavo a doppino intrecciato in rame è l'interconnessione più utilizzata al di fuori delle reti di archiviazione ad alta velocità, anche se con l'arrivo delle interconnessioni in rame da gigabit e 10 gigabit, il doppino intrecciato è stato in grado di ottenere vantaggi rispetto al cavo in fibra ottica per applicazioni SAN ad alta velocità. La famiglia "cat" (categoria) di cavi a doppino intrecciato presenta i vantaggi di basso costo, facilità di produzione e un tipo di connettore che è rimasto relativamente invariato attraverso diverse generazioni di tecnologie di rete.
Il cavo in rame a doppino intrecciato è classificato in base a un numero di generazione che riflette la velocità massima di trasmissione dei dati e la distanza massima del collegamento nominale. A partire dagli anni ’1990, una successione di generazioni “cat” ha portato la connettività a 100 Mb/s (cat5), 1 Gb/s (cat5e), 10 Gb/s (cat6) e una maggiore distanza di collegamento massima (cat7).
Twinax
Originariamente utilizzato nei primi sistemi di microcomputer, il cablaggio biassiale (Twinax) ha trovato un uso continuato come livello fisico per le interconnessioni 10GbE nel 21° secolo. Grazie alla sua struttura semplice, Twinax offre vantaggi in termini di costi rispetto ai cavi in fibra ottica per brevi tragitti, ma è comunque più costoso di 10GbE tramite doppino intrecciato cat6 o cat7. Se il cavo a doppino intrecciato continua a guadagnare terreno nelle applicazioni di interconnessione SAN, Twinax potrebbe essere nuovamente relegato ad applicazioni legacy e di nicchia.
Cavo in fibra ottica
I cavi in fibra ottica offrono numerosi vantaggi tecnici rispetto al rame per la trasmissione dei dati, anche se il loro costo molto maggiore e la mancanza di mezzi pratici da parte dei tecnici per creare i propri cavi nel data center hanno portato molte aziende e data center a riconsiderare il rame per le interconnessioni. Tra i vantaggi della fibra ottica vi sono lunghezze di trasmissione massime più lunghe e una mancanza di vulnerabilità al “rumore” elettromagnetico proveniente da apparecchiature vicine o da un’installazione impropria.
La fibra ottica si trova in due varietà: modalità singola e modalità multipla. La modalità singola presenta un filamento interno ed è in grado di garantire velocità dati massime e distanze tra i segmenti di rete maggiori. Tuttavia, richiede l’uso di laser più costosi che possono aumentare il costo dei dispositivi di rete. La modalità multipla tollera materiali di cavo meno costosi e può essere gestita da luci LED più semplici e meno costose anziché dai laser.
Al momento, il cavo ottico rimane il cavo universale per l'implementazione della SAN aziendale. Le moderne interconnessioni in fibra ottica generalmente presentano sottoconnettori standard del settore, rendendo gli aggiornamenti e le modifiche al protocollo una questione di scambio di ricetrasmettitori per utilizzare lo stesso collegamento per Ethernet, Fibre Channel o InfiniBand. I costi iniziali per l'installazione della fibra ottica sono elevati, ma un cavo di qualità ha una lunga durata, poiché gli aggiornamenti della larghezza di banda spesso richiedono solo l'aggiornamento dei ricetrasmettitori e dell'hardware dello switch.
Ricetrasmettitori/connettori stile SFP
Negli ultimi 10 anni, SFP e i suoi successori hanno dominato un segmento in crescita del mercato dell’interconnessione grazie alla flessibilità del fattore di forma. La maggior parte di ciò che vediamo nel 2013 presenta SFP+ o QSFP, sebbene esistano altre varianti.
- SFP: Small Form-Factor Pluggable, progettato per velocità fino a 1 Gb/s
- SFP+: pluggable con fattore di forma ridotto migliorato, progettato per velocità fino a 10 Gb/s e retrocompatibile con SFP
- QSFP: Quad Small Form-Factor Pluggable, progettato per supportare connessioni da 40 Gb/s e più veloci, questo fattore di forma combina quattro interfacce in un unico ricetrasmettitore
In attesa
Con il supporto di Brocade, Emulex, HP, Intel, Mellanox, Netgear, QLogic e altri, il laboratorio StorageReview è attrezzato per qualsiasi esigenza di interconnessione che potrebbe sorgere. In un ambiente eterogeneo come questo, la flessibilità è fondamentale, non si può dire quando potrebbe essere necessario effettuare il provisioning di una parte del backbone in fibra per un nuovo array o quando vedremo un piccolo NAS standard che supporti l'aggregazione di collegamenti quad-Ethernet. Ovviamente non tutti gli ambienti aziendali o PMI dovranno essere così flessibili e, a tal fine, alcuni fornitori di storage parlano più di modularità che di vincolare gli acquirenti a specifici requisiti di interconnessione. NetApp, ad esempio, dispone di schede Fibra e 10GbE intercambiabili per rendere più semplice l'inserimento dei propri array in ambienti che potrebbero essere standardizzati sull'uno o sull'altro.
Anche i ragazzi dell'interconnessione stanno facendo qualcosa di simile, sono ora disponibili switch SFP+ che rendono semplice per i tecnici il passaggio tra mezzi di collegamento e protocolli senza doverli smontare e ricostruire. Gli Host Bust Adapters (HBA) convergenti QLogic supportano la modifica delle porte tra Ethernet e Fibre Channel scambiando ricetrasmettitori e cavi e modificando un'impostazione nel BIOS della scheda. Mellanox è stato uno dei primi leader nelle schede di rete che utilizzano interconnessioni virtuali, consentendo alla stessa scheda NIC di funzionare tramite InfiniBand o Ethernet collegando un cavo diverso e caricando un driver diverso.
Lo slancio verso l’infrastruttura convergente procede parallelamente alla tendenza verso la virtualizzazione. Le implicazioni delle generazioni più recenti di SAN e della tecnologia di virtualizzazione indicano un movimento costante volto a separare l'infrastruttura fisica non solo dai server e dalle applicazioni che vengono eseguite su di essi, ma anche dal livello di rete che collega l'infrastruttura stessa. Invece di vedere piattaforme di interconnessione concorrenti spostarsi verso silos e concorrenza tra tecnologie, il mercato si sta invece spingendo verso l’intercompatibilità e infrastrutture eterogenee e convergenti.