Hitachi Data Systems (HDS) ha annunciato oggi la sua piattaforma Hyper Scale-Out (HSP) di nuova generazione, la serie HSP 400. La nuova serie HSP 400 è dotata di integrazione nativa con Pentaho Enterprise Platform. Questa integrazione nativa aiuterà l’HSP a fornire una piattaforma sofisticata, definita dal software e iperconvergente per le distribuzioni di big data. Supportando la fusione di big data, l'analisi aziendale integrata e la gestione semplificata dei dati, HSP 400 combina elaborazione, storage e virtualizzazione per fornire un'infrastruttura senza soluzione di continuità.
Hitachi Data Systems (HDS) ha annunciato oggi la sua piattaforma Hyper Scale-Out (HSP) di nuova generazione, la serie HSP 400. La nuova serie HSP 400 è dotata di integrazione nativa con Pentaho Enterprise Platform. Questa integrazione nativa aiuterà l’HSP a fornire una piattaforma sofisticata, definita dal software e iperconvergente per le distribuzioni di big data. Supportando la fusione di big data, l'analisi aziendale integrata e la gestione semplificata dei dati, HSP 400 combina elaborazione, storage e virtualizzazione per fornire un'infrastruttura senza soluzione di continuità.
Oggigiorno vengono generate enormi quantità di dati su base quasi costante. I grandi colpevoli di questa generazione sono la tecnologia dell’informazione (IT), la tecnologia operativa (OT), l’Internet delle cose (IoT). Sempre più aziende si stanno rendendo conto che è possibile ricavare valore da questi dati, ma hanno bisogno della tecnologia con cui possono ottenere questo valore. È qui che entra in gioco HPS con la sua architettura definita dal software che centralizza e supporta la facile archiviazione ed elaborazione di set di dati di grandi dimensioni con elevata disponibilità, gestione semplificata e un modello pay-as-you-grow. L'HPS viene offerto come dispositivo chiavi in mano che può essere installato in poche ore anziché in mesi. Una volta installato, l'HPS supporta carichi di lavoro di produzione e semplifica la creazione di un data Lake elastico che aiuta i clienti a integrare facilmente set di dati disparati ed eseguire carichi di lavoro analitici avanzati.
L'architettura scalabile dell'HPS offre ai clienti un'infrastruttura semplificata, scalabile e pronta per l'impresa per i big data. HDS ha inoltre progettato HPS con un'interfaccia utente centralizzata e di facile utilizzo per automatizzare l'implementazione e la gestione di ambienti virtualizzati per i principali framework di big data open source, tra cui Apache Hadoop, Apache Spark e stack open source commerciali come Hortonworks Data Platform . L’HPS è inizialmente progettato per concentrarsi sull’analisi dei dati di scavo, ma l’obiettivo a lungo termine di HDS è quello di fare in modo che la piattaforma offra il miglior costo totale di proprietà (TCO) della categoria per una varietà di carichi di lavoro IT.
Come accennato in precedenza, la serie HPS 400 è nativamente integrata con Pentaho Enterprise Platform. Questa integrazione offrirà ai clienti funzionalità di livello aziendale come la derivazione dei big data, la gestione del ciclo di vita e una maggiore sicurezza delle informazioni, offrendo loro allo stesso tempo un migliore controllo della pipeline dei dati analitici. HDS afferma inoltre che ciò accelererà il time-to-business insight e fornirà un rapido ritorno sull'investimento (ROI), semplificando al tempo stesso l'integrazione di IT e OT.
Disponibilità
La piattaforma Hitachi Data Systems Hyper Scale-Out è ora disponibile con unità disco SAS, mentre la versione all-flash dovrebbe essere disponibile entro la fine dell'anno.
Iscriviti alla newsletter di StorageReview