Scale Computing afferma di avere una soluzione per l'HCI che può essere installata in pochi minuti, messa in produzione in meno di un'ora ed è creata appositamente per le edge location. Leader nelle soluzioni edge computing, virtualizzazione e iperconvergenti, Scale Computing ha progettato un sistema che si adatta perfettamente all'edge e può essere installato in pochi minuti. StorageReview ha deciso di coinvolgerli nell'attività e di documentare i passaggi dall'unboxing all'installazione e all'esecuzione per vedere se è facile come affermano.
Scale Computing afferma di avere una soluzione per l'HCI che può essere installata in pochi minuti, messa in produzione in meno di un'ora ed è creata appositamente per le edge location. Leader nelle soluzioni edge computing, virtualizzazione e iperconvergenti, Scale Computing ha progettato un sistema che si adatta perfettamente all'edge e può essere installato in pochi minuti. StorageReview ha deciso di coinvolgerli nell'attività e di documentare i passaggi dall'unboxing all'installazione e all'esecuzione per vedere se è facile come affermano.
Scale Computing ha inviato un sistema a 3 nodi, ha inviato tramite e-mail i fogli dati associati e ha fissato una chiamata di supporto per seguire l'installazione se ne avessimo avuto bisogno. Questo è lo stesso processo che un cliente tipico sperimenterebbe acquistando un cluster Scale Computing HyperCore.
SC//IperCore
SC//HyperCore elimina la necessità di software di virtualizzazione tradizionale, software di disaster recovery, server e storage condiviso, sostituendoli con un sistema completamente integrato e ad alta disponibilità per l'esecuzione delle applicazioni. Utilizzando la tecnologia brevettata HyperCore™, la piattaforma di autoriparazione identifica, mitiga e corregge automaticamente i problemi dell'infrastruttura in tempo reale, consentendo alle applicazioni di ottenere il massimo tempo di attività. Quando la facilità d'uso, l'elevata disponibilità e il TCO sono importanti, Scale Computing HyperCore su NUC 11 (HE151) potrebbe essere la piattaforma infrastrutturale per la tua organizzazione.
La prima cosa che abbiamo notato durante la cerimonia di unboxing è stata la dimensione dell'HE151. Queste cose sono minuscole! Basato sulla piattaforma Intel Next Unit of Computing (NUC) 11, il telaio misura 117 x 112 x 54 [mm] (LxWxH). Controlla le specifiche per Scale Computing HyperCore su NUC11 di seguito.
SC//Impostazione e configurazione della piattaforma
Quando si disimballa la piattaforma di calcolo di scala, sarà essenziale mantenere insieme il numero di serie del nodo e la chiave software associata poiché dovranno corrispondere durante la configurazione iniziale del cluster. Seguire la scheda tecnica di installazione ti preparerà per i passaggi successivi del processo di installazione.
La configurazione iniziale è semplice. Posiziona i nodi nella posizione desiderata, collegali all'alimentazione e collega due cavi Ethernet. I due cavi Ethernet forniscono ridondanza in caso di guasto dello switch o di un'altra catastrofe. I nodi non si accenderanno finché non verrà premuto il pulsante di accensione sulla parte anteriore dell'unità. Durante l'inizializzazione dei server, individuare le schede con i numeri di serie e le chiavi software per ciascun nodo.
Sul retro dell'unità sono disponibili due connessioni HDMI. Collega un cavo a una delle porte HDMI. Si spera che ci sia un monitor all'altra estremità di quel cavo. Dopo circa un minuto, il server richiederà le informazioni di accesso. È importante notare che l'accesso al sistema tramite la riga di comando è necessario solo durante la configurazione iniziale.
Una volta inizializzati i nodi, l'accesso avverrà tramite la GUI di Cluster Manager. L'accesso predefinito è admin/admin. Una volta effettuato l'accesso, la seguente richiesta richiede l'indirizzo IP per accedere all'interfaccia utente della bilancia (informazioni fornite da Scale Computing). Successivamente, inserisci l'indirizzo IP del nodo, seguito dalle richieste per il numero di serie dell'hardware e la chiave software. I trattini sono facoltativi quando si inserisce la chiave nel nodo.
Questo è tutto per il nodo 1. Ora segui gli stessi passaggi sul nodo 2 e sul nodo 3.
Dopo che tutti e tre i nodi sono stati inizializzati, accedere nuovamente a ciascun sistema per immettere i comandi per inizializzare il nodo e il cluster. Una volta effettuato l'accesso, inserisci "sudo scnodeinit" per inizializzare il nodo. Il completamento di questo comando richiede circa un minuto. Una volta completato il comando, immettere il secondo comando, "sudo scclusterinit" per indicare al nodo di unirsi al cluster quando gli altri nodi sono attivi. Il completamento del comando cluster richiede circa cinque minuti per una piccola installazione. Un ambiente cluster più grande richiederà più tempo per l'inizializzazione.
Una volta inizializzato, il cluster sarà accessibile tramite l'interfaccia utente di Scale Computing. Accedi all'interfaccia utente di Scale Computing utilizzando le stesse informazioni di accesso per i nodi (admin/admin). A questo punto il cluster è pronto per caricare il sistema operativo desiderato. Se si installa Windows Server 10, i driver appropriati verranno installati automaticamente.
Gestore cluster di elaborazione su scala
Scale Computing ha reso il cluster manager facile da usare quanto installare e creare il cluster. Esistono due metodi per gestire lo Scale Computing Cluster: cluster manager locale e accesso al cloud Fleet Manager. Il gestore cluster locale è un'interfaccia utente grafica attraverso il cluster installato. Avevamo solo un cluster locale a tre nodi, quindi questo sarebbe in genere il metodo per gestire una piccola installazione come la nostra.
Fleet Manager è un'opzione cloud per gestire i cluster installati in posizioni remote e lo strumento di gestione per accedere ai cluster installati da qualsiasi luogo. Si accede a Fleet Manager tramite il cloud Scale Computing.
Quando acquisti un sistema da Scale Computing, sarà necessario configurare un account su Scale Edge per supporto, aprire ticket, accesso al software, ecc. Le informazioni di accesso vengono utilizzate per accedere a SC//Fleet Manager e sono specifiche per il sistema installato cluster(i).
Gestione dei cluster locali
Di seguito sono riportate le schermate del nostro cluster locale. L'accesso alla GUI viene fornito collegandosi all'indirizzo IP del cluster locale, in genere dalla stessa rete. L'interfaccia è intuitiva e facile da usare.
I dettagli per ciascun nodo nel cluster vengono visualizzati per una facile identificazione. I messaggi di avviso sono evidenziati in alto a destra sul display, insieme al nome utente e all'opzione per disconnettersi. C'è anche un'opzione per chattare con il supporto ScaleCare direttamente dalla finestra di gestione.
Poiché la nostra installazione era piuttosto semplice, le informazioni potrebbero non essere troppo interessanti, ma si tratta di uno strumento prezioso in un ambiente di produzione. Le opzioni di visualizzazione sono disponibili sul lato sinistro dello schermo per ottenere i dettagli sullo stato del cluster e dei nodi.
Il display è diviso e mostra le informazioni sulla RAM o sul DISCO nella metà superiore. Quando è selezionata la vista RAM, la sezione superiore mostrerà anche la VM specifica con i dettagli della memoria allocata, utilizzata e libera. Facendo doppio clic sulla VM nella sezione superiore ti porterà a quella macchina virtuale e al sistema operativo installato.
La sezione seguente si basa sulla configurazione specifica di quella macchina virtuale. Al centro del display è presente l'accesso globale alle VM in quel cluster. Lo stesso vale per le icone sul lato sinistro della parte inferiore del display. Le icone all'interno di ciascuna finestra della VM influiranno sull'output solo per quella VM.
Selezionando l'icona a forma di ingranaggio verranno visualizzate le configurazioni per tutte le VM nel cluster.
È possibile selezionare strumenti specifici per il singolo nodo e componenti e visualizzare il cluster. La selezione dell'icona a forma di ingranaggio nella visualizzazione della VM fornisce l'accesso al file system e al sistema operativo installato, con la possibilità di espellere dischi specifici. A seconda della configurazione di ciascun nodo, è possibile scorrere ciascun nodo per ottenere i dettagli del file system. L'icona della pila fornirà dettagli su eventuali istantanee e opzioni per eseguire uno snapshot immediato.
La modifica della visualizzazione da RAM a DISCO nella sezione superiore della finestra di gestione modificherà la visualizzazione in quella sezione. Esiste anche un'opzione per eseguire funzioni su tutti i nodi del cluster contemporaneamente facendo clic sui dettagli di TUTTE le VM e selezionando l'azione dal menu a discesa.
Selezionando l'icona a forma di ingranaggio sulla barra centrale verranno fornite più opzioni specifiche per il cluster. Ognuna di queste opzioni fornirà maggiori dettagli. La schermata seguente descrive in dettaglio il registro del cluster.
La selezione di una delle icone specifiche della VM rende possibile modificare l'output di visualizzazione di quel nodo senza influenzare i display nel cluster rimanente. La selezione dell'icona a forma di ingranaggio su una particolare VM offre la possibilità di eseguire test, spegnere e riaccendere, controllare le destinazioni del disco, ecc.
Lo spostamento di una VM è facile e veloce
Spostare una VM è semplice come trascinare e rilasciare. Nella visualizzazione del nodo, selezionare l'icona del misuratore. Le icone nella parte inferiore della visualizzazione del nodo cambiano e forniscono opzioni per la manutenzione dell'utente, lo spostamento di una VM, l'eliminazione di una VM, la clonazione e gli snapshot.
Seleziona l'icona di spostamento (che assomiglia a una pila con una parte che sporge a destra) per spostare una VM. Selezionandolo cambierà la metà superiore del gestore e fornirà il nodo disponibile per spostare quella VM specifica. Seleziona il nodo su cui spostare la VM.
In basso a destra viene visualizzato un popup con le informazioni relative allo spostamento.
Quando la VM si sarà spostata, il display mostrerà la nuova posizione con i dettagli per quel nodo.
Riportare la VM nella posizione originale è altrettanto semplice.
Il display indicherà le modifiche apportate quando la VM si è spostata nella posizione selezionata.
Esistono diverse opzioni per semplificarti la vita con la vista dei nodi della VM. Hai bisogno di creare un clone di una VM? Seleziona l'icona accanto alla "fotocamera" per visualizzare un popup con tutti i campi appropriati per clonare una VM.
Le istantanee sono altrettanto semplici. Fare clic sulla fotocamera e scattare una foto. Il popup offre l'opportunità di assegnare un'etichetta allo snapshot.
La modifica della VM è rapida e accessibile. Selezionando la chiave verrà visualizzata una casella di modifica per modificare i parametri della VM, il nome, il tipo di avvio, ecc.
Selezionando l'ingranaggio nella visualizzazione della VM verranno fornite opzioni per aggiungere dischi e configurare le porte di rete.
Fai clic sull'icona che assomiglia a un disco esterno e fornisci le informazioni necessarie per aggiungere un'unità.
L'ultima icona nella vista del nodo VM fornisce opzioni per comandi specifici della VM.
Viene fornito un popup per rendere indolore l'esportazione di una VM.
L'icona che assomiglia a una casella con una freccia rivolta verso di essa, situata sul lato sinistro della barra centrale, aprirà una finestra pop-up, fornendo i campi di input necessari per importare la VM HyperCore.
È possibile accedere al menu del centro di controllo selezionando l'icona a forma di ingranaggio nella barra centrale. Questa sezione del gestore cluster locale fornisce registri, condizioni, aggiornamenti software, ecc.
La visualizzazione è in ordine alfabetico e la prima opzione è il "Registro del cluster". Tutti gli eventi verranno visualizzati in questa finestra. Gli eventi mostrati provengono da alcuni test che abbiamo eseguito in precedenza. Abbiamo eseguito un'interruzione forzata dell'alimentazione per vedere cosa avrebbe fatto il cluster con le VM. I dettagli verranno forniti più avanti nell'articolo.
"Condizioni" mostrerà qualsiasi condizione insolita all'interno della configurazione o del cluster.
"Control" consente di spegnere l'intero cluster con un solo clic. Scale Computing richiede di essere contattato prima dello spegnimento poiché il cluster comunica anche con i servizi cloud Scale per la gestione e il supporto remoto.
La selezione di "Media" offre la possibilità di vedere quali sistemi sono caricati e in esecuzione e anche la possibilità di caricare nuovi ISO.
Da questa schermata è possibile accedere e gestire i clienti con cluster remoti distribuiti.
La schermata "Supporto remoto" si collega al supporto di Scale Computing per connettere e risolvere i problemi dei cluster.
Eventuali pianificazioni di sistema verranno visualizzate nella schermata "Programmazioni".
Le Impostazioni di sistema vengono visualizzate in questa schermata.
Da questa schermata è possibile gestire i certificati SSL.
Se Scale Computing dispone di un aggiornamento per il cluster, questo verrà visualizzato in questa schermata oltre al messaggio "aggiornamenti disponibili" vicino al numero di versione nella parte superiore dello schermo. Risparmia tempo all'amministratore nella ricerca di eventuali aggiornamenti disponibili.
In modo proattivo, il cluster si rivolge a Scale Computing per verificare che il cluster stia eseguendo la versione più recente, garantendo che l'ambiente abbia accesso alle funzionalità e ai miglioramenti più recenti insieme alle correzioni di bug e sicurezza. Poiché gli aggiornamenti vengono applicati in modo progressivo, l'applicazione di questi non è un evento per l'utente e per tutte le connessioni ai carichi di lavoro in esecuzione sul cluster.
Qualora fosse necessario aggiungere o modificare le informazioni dell'utente, è possibile farlo dalla schermata "Gestione utenti".
Da questo menu è anche possibile contattare il supporto di Scale Computing. Ciò include opzioni per aprire ticket come cliente o partner o, se è necessaria una risposta immediata, viene visualizzato il numero da chiamare per l'assistenza. Sono presenti collegamenti alla documentazione e accesso alla comunità degli utenti.
Scale Computing utilizza il concetto di comunità in modo molto efficace. Esiste una posizione Web separata in cui gli utenti possono condividere informazioni, chiedere assistenza ad altri, verificare le opzioni di configurazione e altro ancora. Questo è uno strumento eccellente per chiunque distribuisca questi cluster.
Cosa succede se un nodo si guasta in un cluster di calcolo su scala?
Volevamo vedere come il cluster avrebbe reagito a un improvviso ciclo di alimentazione, quindi è stata staccata la spina da uno dei nodi. Abbiamo documentato la sequenza degli eventi, con messaggi di sistema dall'interruzione dell'alimentazione al ripristino dell'alimentazione.
Dopo aver staccato la spina del nodo TestVM2, il contatore degli allarmi (situato nell'angolo in alto a destra del display) è stato incrementato di uno e un popup in basso a destra ha indicato un problema di ridondanza.
Osservando il registro del cluster in Control Center, i messaggi di errore indicavano un nodo irraggiungibile con messaggi di avviso, critici e di avviso. L'interfaccia utente di SC//HyperCore mostrava anche nuovi messaggi nell'angolo in basso a destra. Questi popup verranno visualizzati indipendentemente dalla schermata corrente.
La visualizzazione del nodo nella parte superiore della schermata del gestore indicava che la VM era offline. Sono aumentati anche i contatori degli errori nell'angolo in alto a destra, indicando ulteriori errori.
Gli allarmi informativi sono stati cancellati per fornire solo gli allarmi correnti per concentrarsi sul problema in questione.
Questa visualizzazione mostra che la VM dal nodo guasto è stata spostata su uno degli altri nodi. Si trattava di un processo automatizzato che non richiedeva alcun intervento. Le risorse di TestVM1 sono state aggiornate per riflettere carichi, utilizzo del disco e disponibilità.
È stato inoltre aggiornato il registro del cluster per indicare la nuova posizione della VM dal nodo guasto, visualizzato come allarme informativo poiché la VM era di nuovo operativa.
Ora che la VM era stata avviata ed era disponibile per gli utenti, il nodo "guasto" veniva collegato e acceso.
Una volta disponibile il nodo, il registro del cluster indicava che la VM si sarebbe riunita al cluster originale.
Il nodo viene visualizzato come disponibile tramite il backplane e gli allarmi sono stati cancellati dagli indicatori nella parte superiore della schermata di gestione. Anche i pop-up si stavano schiarendo.
Questa è una visualizzazione più ampia delle informazioni riflesse dai popup quando la VM ha tentato di ricongiungersi al nodo preferito.
Il display mostra che il nodo è online, ma la VM non è stata migrata.
Una volta che la VM è tornata al nodo preferito, la schermata si è aggiornata con la posizione e le risorse sono state ripristinate alla normalità. Il registro indica inoltre che la VM è tornata al nodo preferito.
E tutto è tornato allo stato originale.
L’aspetto principale di questa sequenza è che l’intero processo era automatico. Non è stato configurato nulla sul cluster per forzare uno spostamento della VM da un nodo guasto. Il cluster Scale si è occupato di tutti i processi, dallo spegnimento all'accensione e al riavvio.
Se è necessario spegnere un nodo, Scale Computing chiede di contattare il supporto prima di spegnere il sistema, che invia un allarme al sistema remoto.
Il cluster manager locale fornisce molte informazioni e la configurazione generale. In caso di guasto, il cluster manager fornisce dettagli immediati e azioni automatiche intraprese dal cluster.
Gestione remota SC//Fleet Manager
Scale Computing Fleet Manager è il primo strumento di monitoraggio e gestione ospitato nel cloud creato per un'infrastruttura di edge computing iperconvergente su larga scala. SC//Fleet Manager semplifica il monitoraggio e la gestione sicura di un'intera flotta di cluster che eseguono Scale Computing HyperCore. Per i responsabili IT con più cluster, i tempi di manutenzione saranno ridotti del 50% o più grazie alla semplicità progettata in questa piattaforma.
SC//Fleet Manager consolida le condizioni in tempo reale e l'utilizzo delle risorse per tutti i cluster SC//HyperCore. SC//Fleet Manager elimina la necessità di accedere alle singole interfacce utente dei cluster, offrendo ai manager la possibilità di osservare ogni cluster da un unico pannello di controllo.
Funzionalità di SC//Fleet Manager:
- Controlla connettività e salute con un rapido sguardo da qualsiasi browser su qualsiasi dispositivo, anche mobile
- Esamina un cluster specifico per diagnosticare e risolvere eventuali problemi
- Visualizza l'utilizzo della CPU e del disco in tempo reale a livello di cluster, nodo e VM
- Esegui il drill-down fino all'accesso HyperCore di qualsiasi cluster
- Visualizza a colpo d'occhio il firmware corrente di tutti i cluster
- Applica un aggiornamento firmware a un cluster con un solo clic da SC//Fleet Manager
- Monitora gli aggiornamenti del firmware in tempo reale per i cluster dell'intera flotta da un unico pannello di controllo
SC//Gestore flotta in azione
L'accesso a SC//Fleet Manager ospitato nel cloud fornisce informazioni dettagliate su tutti i cluster a livello globale. L'aspetto della GUI è simile al gestore locale.
Sono presenti icone sul lato sinistro del display per accedere al cluster, eseguire funzioni di gestione specifiche e aggiungere utenti e dettagli dell'organizzazione.
Questa è la visualizzazione del cluster con dettagli sull'integrità e utilizzo di memoria, disco e CPU.
Facendo clic sull'icona del tachimetro la visualizzazione cambierà in una visualizzazione dashboard che dettaglia gli eventi del cluster e del nodo.
È possibile accedere alle funzioni specifiche del nodo selezionando l'icona della spina.
Facendo clic sull'icona dell'utente viene visualizzata una schermata per aggiungere o modificare gli account utente.
L'icona dell'ingranaggio mostrerà i dettagli dell'organizzazione.
Nella parte in alto a destra dello schermo, c'è un'opzione per chattare con il supporto o visualizzare la documentazione senza accedere a un altro sistema. L'altra icona disconnetterà l'utente dallo strumento SC//Fleet Manager.
Consumo energetico della piattaforma SC//
Funzionando sulla piattaforma Intel NUC 11 compatta ed efficiente, questo cluster SC//HyperCore è molto efficiente dal punto di vista energetico. Date le opzioni di implementazione flessibili per il cluster Scale Computing, abbiamo misurato l'assorbimento di potenza dal cluster durante l'avvio e le normali operazioni utilizzando il nostro analizzatore di potenza XiTRON XT2640.
L'analizzatore ha mostrato l'aumento della potenza man mano che ciascun nodo si accendeva durante il processo di avvio. Abbiamo ritardato la pressione del pulsante di accensione su ciascun nodo di circa 5 secondi per vedere l'aumento dell'assorbimento da ciascun nodo. L'analizzatore ha misurato un assorbimento di potenza di picco inferiore a 150 watt durante il processo di avvio rapido prima di ridurre gradualmente il consumo energetico di base.
Con il cluster a 3 nodi online e le nostre 3 VM attive, il consumo energetico totale del cluster è rimasto compreso tra 90 e 115 watt. Si tratta di una frazione di quanto consumerebbe un singolo server di dimensioni standard, rendendo questi nodi compatti implementabili praticamente ovunque.
Chiedi alla comunità dello Scale Computing
Scale Computing ha una comunità di utenti molto attiva. Tanto che esiste un sito Web dedicato in cui utenti e abbonati possono porre domande, pubblicare risoluzioni, ottenere consigli e interagire con altri utenti di Scale Computing. Naturalmente, se la risposta non è disponibile sul sito della community, c'è sempre il supporto 24 ore su 7, XNUMX giorni su XNUMX.
Il sito della Comunità è disponibile all'indirizzo Community.scalecomputing.com. Anche iscriversi è semplice. Gli utenti registrati possono controllare la knowledge base dalla home page, aprire un caso o verificarne lo stato, ottenere assistenza per l'onboarding, accedere ai forum degli utenti e scaricare gli aggiornamenti software. Scale Computing ha compiuto molti sforzi per mantenere questo tipo di accesso.
Harrison Steel Castings Company: uno dei primi ad adottarlo
Quando si considera dove i piccoli cluster HCI possono aggiungere valore, le applicazioni edge raggiungono immediatamente i vertici. Il mercato edge è molto caldo in questo momento, con tantissime opportunità per una soluzione piccola e semplice da installare e utilizzare. La vendita al dettaglio è una priorità, con la sicurezza probabilmente al secondo posto. Ma quanto in basso nella lista si troverebbe un’azienda di fusioni di acciaio nel nostro scenario limite?
entrare Società di colate in acciaio Harrison. Il cliente di Scale Computing, Harrison Steel Castings Company, ha accettato di dedicare qualche minuto per offrire la propria esperienza con la soluzione HyperCore di Scale Computing.
Come suggerisce il nome, l'azienda dell'Indiana si occupa della produzione di soluzioni di fusione di acciaio di precisione. La produzione di ciascuno di questi pezzi fusi può richiedere settimane e, se ritenuti difettosi, i pezzi fusi impropri devono essere rottamati nella loro interezza.
Le fusioni in acciaio non sono così semplici come potrebbero sembrare. Ci sono fasi all'interno del processo che richiedono vibrazioni specifiche, l'aggiunta di fuso misurato e il monitoraggio della temperatura, solo per citarne alcune. Harrison aveva bisogno di una soluzione economica, facile da gestire e affidabile che aiutasse a raccogliere i dati dei sensori.
Questo problema dei margini industriali è molto comune. Le aziende stanno scoprendo che se riescono a monitorare in modo efficace elementi come umidità, vibrazioni, PSI, dati di telemetria provenienti dalle macchine e altri dati vitali, queste nuove informazioni fruibili avranno un impatto sulle operazioni aziendali e sulla redditività.
Harrison è coinvolto in questo percorso di analisi. Stanno cercando di scoprire come i loro ingegneri possano utilizzare meglio i dati per ridurre gli sprechi e, in definitiva, aumentare l’efficienza e la redditività. Il loro cluster HCI HE150 originale gestisce questo compito in modo abbastanza efficace, rimanendo in officina come aggregatore di tutti i dati dei sensori. Ogni notte, Harrison raggruppa i dati e li inserisce nel data center principale che contiene i sistemi HCI più grandi di Scale Computing per ulteriori elaborazioni e analisi.
Dopo una prova di concetto durata sei mesi, hanno acquistato un cluster di produzione. Il cluster H150 di produzione è stato messo in un ambiente di prova per sei mesi e infine è passato alla produzione. Quel cluster di produzione è in funzione da sei mesi senza alcun reclamo su nessuna unità dal primo giorno.
Shane Rogers, Direttore IT di Harrison Steel Castings, è stato coinvolto nell'installazione della Scale Computing Platform fin dall'inizio ed è stato il sostenitore della raccolta dei dati per l'analisi. Alla domanda sull'affidabilità e sui guasti, Shane ha detto:
“Abbiamo mantenuto il cluster POC, che è in funzione da quasi due anni senza guasti. L'ambiente di una fonderia non è carino. Le micropolveri sono un problema enorme di cui ci occupiamo. Quindi, per rimanere al passo con il sistema, ogni tanto fallirò i miei nodi di produzione solo per testare il failover. E funzionano perfettamente. Sposterò i nodi nel cluster solo per assicurarmi che ciascun nodo venga utilizzato in modo efficace."
In definitiva, è questa facilità di gestione che offre enormi vantaggi ad Harrison. La semplicità di attivazione del sistema al giorno 0 è eccellente, come abbiamo visto nei nostri test di laboratorio. Tuttavia, i vantaggi operativi continui da quel momento in poi possono essere difficili da quantificare, ma i clienti lo apprezzano.
Considerazioni finali
Scale Computing HyperCore su NUC11 mantiene quanto promesso. I ragazzi di Scale Computing ci hanno detto che è possibile avere un cluster HyperCore attivo e funzionante in 30 minuti e hanno colto nel segno. L'impostazione e la configurazione sono intuitive grazie a un set di strumenti di facile navigazione. Naturalmente, Scale Computing fornisce supporto tramite Zoom e può accompagnare chiunque attraverso il processo per garantire che non ci siano ostacoli lungo il percorso.
I passaggi sono stati spiegati nelle schede tecniche fornite prima dell'installazione dei nodi, quindi non ci sono state sorprese durante il processo.
Trasformazione dell'edge computing, basata su Intel®
La piattaforma di calcolo in scala è un kit Intel IoT RFP Ready (Intel RRK). Gli RRK Intel sono offerte tecnologiche mirate che risolvono una classe di problemi di mercato, sono state implementate e testate sul campo e forniscono hardware, software e supporto in bundle. La tecnologia è scalabile e progettata per crescere insieme alle esigenze dei clienti, consentendo uno sviluppo e un time-to-market accelerati.
Intel offre prestazioni efficienti dal punto di vista energetico e intelligenza ottimizzata per il business. Con la tecnologia di visione e le funzionalità di deep learning all'edge, la tua azienda può realizzare nuovi casi d'uso e tempi di risposta più rapidi. La nostra suite di funzionalità di sicurezza di base integrata semplifica l'implementazione di un modello di sicurezza coerente che aiuta a proteggersi da un'ampia gamma di minacce.1
Grazie all'ampio supporto della connettività, Intel semplifica la condivisione dei dati tra i dispositivi e il cloud. Le nostre tecnologie specializzate per la virtualizzazione ti aiutano a semplificare il tuo ambiente IT, aumentando l'efficienza e il valore dei tuoi investimenti tecnologici. E poiché i prodotti Intel sono progettati per garantire elevata affidabilità e lunga durata, puoi contare sul supporto per anni.
Le soluzioni oggi disponibili rendono l'implementazione edge semplice e senza soluzione di continuità. Il risultato significa una piena capacità di sviluppare e distribuire rapidamente nuove tecnologie senza complessità architetturali o limitazioni del personale IT.
Questo rapporto è sponsorizzato da Scale Computing. Tutti i pareri e le opinioni espressi in questo rapporto si basano sulla nostra visione imparziale dei prodotti in esame.
Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | TikTok | RSS feed