Fin dalla sua nascita, l’attenzione di Marvell si è concentrata sul networking delle infrastrutture, costruendo prodotti che soddisfano i livelli di servizio richiesti da una varietà di applicazioni e carichi di lavoro diversi. Gli architetti IT devono cercare una tecnologia intelligente che offra flessibilità e scalabilità per supportare SSD, Flash, database di grandi dimensioni e virtualizzazione. Marvell crede fermamente che Fibre Channel (FC) sia la tecnologia di riferimento per il trasporto dello storage, con una strategia di migrazione FC per NVMe-oF tramite FC (FC-NVMe) con supporto nativo per VMware vSphere ed ESXi. Questa tecnologia è disponibile oggi ma non è evidente a molti clienti.
Fin dalla sua nascita, l’attenzione di Marvell si è concentrata sul networking delle infrastrutture, costruendo prodotti che soddisfano i livelli di servizio richiesti da una varietà di applicazioni e carichi di lavoro diversi. Gli architetti IT devono cercare una tecnologia intelligente che offra flessibilità e scalabilità per supportare SSD, Flash, database di grandi dimensioni e virtualizzazione. Marvell crede fermamente che Fibre Channel (FC) sia la tecnologia di riferimento per il trasporto dello storage, con una strategia di migrazione FC per NVMe-oF tramite FC (FC-NVMe) con supporto nativo per VMware vSphere ed ESXi. Questa tecnologia è disponibile oggi ma non è evidente a molti clienti.
Primer NVMe-oF
Marvell ritiene che FC rimarrà il gold standard per le reti di storage principalmente perché FC ha una storia di affidabilità e innovazione; sta migliorando il valore della FC concentrandosi sull'inclusione della tecnologia NVMe-oF per Fibre Channel per offrire ulteriore valore all'azienda. Marvell ha mantenuto l'innovazione in primo piano per il suo ampio portafoglio di prodotti che supporta EBOF, FC-NVMe, DPU, controller SSD e NVMe-oF. Con una gamma di prodotti così ampia e il loro interesse per le tecnologie di rete, Marvell ci ha invitato nel loro laboratorio per eseguire alcuni test delle prestazioni incentrati su FC-NVMe, NVMe/TCP, NVMe-RoCEv2 all'interno di un ambiente VMware ESXi.
Mentre i fornitori continuano a implementare storage basato sul protocollo NVMe, le aziende stanno abbracciando pienamente la tecnologia. Gli array NVMe Flash vengono distribuiti a livello globale in molti data center utilizzando Fibre Channel come trasporto preferito perché è una tecnologia comprovata in termini di affidabilità, prestazioni e sicurezza. NVMe-oF è cresciuto in popolarità, con il gruppo di lavoro NVMe che ha introdotto lo standard nella specifica NVMe 2.0 annunciata alla fine del 2021.
Con la maturazione degli standard NVMe-oF, i fornitori stanno incorporando la tecnologia nell’hardware di storage e trasporto, alleviando così i problemi di implementazione. I protocolli NVMe su Ethernet verranno utilizzati negli apparecchi Software-Defined e HCI poiché in genere si connettono alle reti Ethernet. Nella SAN, le organizzazioni che oggi utilizzano Fibre Channel passeranno a FC-NVMe, mentre quelle che utilizzano iSCSI probabilmente passeranno a NVMe/TCP.
Per decenni, FC è stata la tecnologia di riferimento per ambienti mission-critical e business-critical perché il design soddisfa le esigenze di prestazioni e latenza dei carichi di lavoro di storage a blocchi. FC sostiene il rispetto delle esigenze SLA per carichi di lavoro mission-critical che sono estremamente sensibili alle prestazioni e alla disponibilità dell'infrastruttura di storage sottostante. Le dimensioni dei carichi di lavoro sono aumentate e ciò ha influito sulla scalabilità dell’infrastruttura. Naturalmente, uno dei principali punti focali man mano che questi carichi di lavoro crescono è l’accesso ai sistemi di storage. NVMe su Fibre Channel offre numerosi vantaggi in termini di prestazioni, latenza e affidabilità. Prestazioni di storage durature e prevedibili richiedono una perfetta integrazione e compatibilità con Fibre Channel.
Altre opzioni per costruire un tessuto infrastrutturale IT includono Ethernet e Infiniband. Tuttavia, le capacità intrinseche di Fibre Channel possono soddisfare al meglio le prestazioni dell’infrastruttura di prossima generazione e le richieste di scalabilità per soddisfare le metriche NVMe. Ricordate che i tessuti Fibre Channel sono stati ben consolidati da quando lo standard ANSI è stato pubblicato nel 1994 e hanno continuato ad evolversi, dimostrando che Fibre Channel è ancora la principale tecnologia di rete per le reti di storage. Inoltre, NVMe over FC può supportare contemporaneamente sia NVMe che SCSI sulla stessa rete.
Man mano che le organizzazioni passano a carichi di lavoro più impegnativi come AI/ML, NVMe su FC offre prevedibilità delle prestazioni di rete e bassa latenza. I fornitori hanno fornito tecnologia di switch che supporta contemporaneamente FC-NVMe, SCSI/FC e fabric SAN native. L'integrazione dei componenti di rete che supportano FC-NVMe è abbastanza semplice e in genere non richiede hardware aggiuntivo. Se l'implementazione attuale è una SAN FC che opera a 16 GFC o superiore, i comandi NVMe sono incapsulati in FC. Oltre alla possibilità di modificare o aggiungere dischi di destinazione NVMe, potrebbe esserci un aggiornamento del firmware o del driver per l'HBA o il sistema operativo.
VMware e FC-NVMe
VMware ESXi 7.0+ supporta NVMe su Fibre Channel (FC-NVMe) e NVMe su RDMA Converged Ethernet (NVMe-RoCE). NVMe-RDMA e NVMe-RoCE sono essenzialmente uguali e talvolta sono intercambiabili. VMware ha recentemente rilasciato ESXi 7.0 U3 con supporto per NVMe/TCP. Carichi di lavoro in esecuzione in un ambiente VMware vSphere o ESXi, l'integrazione di FC-NVMe è semplice e sembra simile a un'implementazione FC tradizionale. Le schermate seguenti illustrano le somiglianze nella configurazione degli HBA per supportare FC e FC-NVMe.
utilizzando Adattatori FC Marvell QLogic QLE2772 a doppia porta da 32 Gb e NetApp AFF A250 per presentare le LUN FC tradizionali e gli spazi dei nomi NVMe, siamo in grado di mostrare quanto sia semplice per un utente finale effettuare il provisioning di ciascun tipo di storage. Con lo storage suddiviso in zone in modo appropriato sulla struttura Fibre Channel su un host VMware, lo stesso flusso di lavoro crea un datastore.
Dietro le quinte, la scheda dual-port si presenta come quattro dispositivi. Due sono per lo storage FC tradizionale, mentre gli altri sono per NVMe. Nel nostro screenshot, vmhba2/3 sono dispositivi FC standard e vmhba67/68 sono per NVMe. Va notato che questi vengono visualizzati automaticamente in VMware ESXi 7 con i driver integrati e il firmware attuale, senza richiedere un'installazione univoca. La documentazione di VMware consiglia di accettare le impostazioni predefinite durante l'installazione. Nella nostra prima visualizzazione, viene selezionato il dispositivo Fibre Channel tradizionale, mostrando un disco Fibre Channel NetApp da 1 TB che risulta "Non consumato".
Passando alla visualizzazione Marvell QLogic NVMe, vediamo un altro disco Fibre Channel NVMe da 1 TB, anch'esso non consumato. L'output di vSphere include opzioni per namespace e controller per definire la modalità di accesso del sistema alla LUN.
La visualizzazione dello spazio dei nomi NVMe in genere presenta più dispositivi visualizzati; tuttavia, nel nostro test abbiamo effettuato il provisioning di un singolo dispositivo da 1 TB.
Nella vista Controller, vengono visualizzati i controller NetApp ONTAP NVMe, che presentano i dispositivi agli host mappati. L'opzione "Aggiungi controller" è disponibile per aggiungere manualmente un nuovo controller, sebbene VMware ESXi 7 li rilevi automaticamente quando opportunamente suddiviso in zone su un determinato FC WWN.
Il passaggio successivo prevede la configurazione dell'archiviazione. ESXi fornisce uno strumento "Nuovo archivio dati" per aggiungerne facilmente uno al sistema. Disponiamo di tipi di archiviazione sia FC che FC-NVMe come opzioni nella configurazione del nostro host, a dimostrazione di quanto sia semplice il processo di configurazione per un utente finale. Innanzitutto, selezioniamo il dispositivo NVMe per il nostro test per creare un datastore con un nome appropriato e passiamo al passaggio successivo.
Il datastore NVMe ha lo stesso processo di selezione VMFS, in cui l'utente può scegliere tra VMFS 6 o una versione legacy VMFS 5.
Successivamente, il disco viene partizionato per il datastore, utilizzando l'intero spazio disponibile sul dispositivo.
Dopo questi pochi passaggi, è il momento di creare il nuovo datastore FC-NVMe. Durante tutto il processo, ESXi visualizza le informazioni chiave per aiutare a ottenere questo processo corretto.
I passaggi per creare uno spazio di archiviazione FC sono gli stessi di FC-NVMe descritti sopra. Innanzitutto, seleziona il dispositivo FC disponibile.
Quindi scegli la versione VMFS.
Con la versione VMFS selezionata, il passaggio successivo è partizionare l'archivio dati, utilizzando nuovamente tutto lo spazio disponibile sul dispositivo.
L'output nella schermata di riepilogo mostra il dispositivo NetApp Fibre Channel anziché il dispositivo NVMe Fibre Channel, ma il flusso di lavoro per arrivare a questo punto è lo stesso per entrambi.
I nuovi archivi dati che abbiamo creato vengono visualizzati nell'elenco degli archivi dati per l'host e sono pronti per l'uso per l'archiviazione delle VM.
Prestazioni FC-NVMe
Per illustrare le prestazioni complessive tra FC-NVMe, NVMe-RoCE e NVMe/TCP, Marvell ha misurato i risultati in base a carichi di lavoro leggeri, medi e pesanti. I risultati prestazionali sono stati abbastanza coerenti in tutti e tre i carichi di lavoro, con NVMe/TCP in ritardo rispetto a FC-NVMe e NVMe-RoCE. Il layout del test è stato configurato come mostrato di seguito.
L'analisi della latenza durante l'esecuzione di carichi di lavoro leggeri ha evidenziato la latenza intrinseca del TCP. Misurando le dimensioni dei blocchi casuali, NVMe-RoCE ha sovraperformato, seguito da FC-NVMe. Eseguendo letture 8K simulate, NVMe/TCP aveva quasi il doppio della latenza del tessuto di FC-NVMe.
In un ambiente con carichi di lavoro medi, confrontando FC-NVMe con NVMe/TCP, FC-NVMe ha ottenuto le prestazioni migliori. I risultati sono stati impressionanti, con FC-NVMe che ha fornito circa il 127% in più di transazioni rispetto a NVMe/TCP. I numeri di latenza riflettono la predominanza di FC-NVMe con una latenza inferiore del 56% rispetto a NVMe/TCP.
Misurando i livelli di stress in esecuzione in una simulazione di carico di lavoro pesante, FC-NVMe ha funzionato costantemente meglio rispetto ai tessuti basati su Ethernet. FC-NVMe ha fornito una larghezza di banda maggiore del 50% rispetto a NVMe/TCP ma, cosa ancora più importante, ha richiesto cicli CPU significativamente inferiori, liberando il server VMware ESXi per ospitare più VM.
Considerazioni finali
La semplicità di configurazione sia di FC che di NVMe-oF all'interno di un ambiente virtualizzato è stata illustrata negli screenshot qui sopra. La maggior parte degli utenti non è pienamente consapevole della facilità di implementazione sia di FC che di FC-NVMe sui sistemi ESXi. VMware offre un'opzione semplice per configurare e amministrare i vantaggi FC affidabili senza introdurre nuove complessità.
Sebbene abbiamo utilizzato l'hardware NetApp nel nostro laboratorio per evidenziare la facilità della connettività, esiste un'ampia gamma di altri fornitori che supportano FC NVMe-oF. Marvell ha compilato un elenco di fornitori e lo ha pubblicato sul proprio sito web. Se vuoi vedere l'elenco completo, clicca qui.
Per ulteriori informazioni sugli adattatori Marvell FC-NVMe, visitare il loro sito Web facendo clic qui. Puoi anche visitare il sito NVM Express per verificare le specifiche più recenti e vedere le prospettive di NVMe andando qui.
Questo rapporto è sponsorizzato da Marvell. Tutti i pareri e le opinioni espressi in questo rapporto si basano sulla nostra visione imparziale dei prodotti in esame.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS feed