Casa Impresa Annunciato Samsung HBM-PIM

Annunciato Samsung HBM-PIM

by Adam Armstrong
Samsung HBM-PIM

Oggi Samsung Electronics Co., Ltd. ha annunciato di aver sviluppato quella che definisce la prima memoria ad alta larghezza di banda (HBM) del settore integrata con potenza di elaborazione di intelligenza artificiale (AI), Samsung HBM-PIM. La parte PIM sta per elaborazione in memoria, ovvero un'architettura per portare le funzionalità di intelligenza artificiale all'interno della memoria ad alte prestazioni. L'azienda afferma che ciò comporterà il raddoppio delle prestazioni del sistema con una riduzione del 70% del consumo energetico. L'HBM-PIM mira ad accelerare l'elaborazione su larga scala nei data center, nei sistemi di calcolo ad alte prestazioni (HPC) e nelle applicazioni mobili abilitate all'intelligenza artificiale.

Oggi Samsung Electronics Co., Ltd. ha annunciato di aver sviluppato quella che definisce la prima memoria ad alta larghezza di banda (HBM) del settore integrata con potenza di elaborazione di intelligenza artificiale (AI), Samsung HBM-PIM. La parte PIM sta per elaborazione in memoria, ovvero un'architettura per portare le funzionalità di intelligenza artificiale all'interno della memoria ad alte prestazioni. L'azienda afferma che ciò comporterà il raddoppio delle prestazioni del sistema con una riduzione del 70% del consumo energetico. L'HBM-PIM mira ad accelerare l'elaborazione su larga scala nei data center, nei sistemi di calcolo ad alte prestazioni (HPC) e nelle applicazioni mobili abilitate all'intelligenza artificiale.

Samsung HBM-PIM

La maggior parte dei sistemi informatici sono basati sull'architettura von Neumann: un'unità di elaborazione, un'unità di controllo, memoria, memoria esterna e meccanismi di input e output. L'architettura di von Neumann ha funzionato abbastanza bene negli ultimi 75 anni circa. Tuttavia, non è senza colpa. In effetti, esiste un fenomeno noto come collo di bottiglia di von Neuman in cui il throughput tra la CPU e la memoria è limitato. Ora, si vede più volume che mai nei dati e la necessità di spostarli rapidamente. Samsung sta cercando di aggirare questo collo di bottiglia.

Samsung HBM-PIM cerca di rimuovere il collo di bottiglia collocando la potenza di elaborazione in cui i dati vengono archiviati attraverso un motore AI ottimizzato per DRAM all'interno di ciascun banco di memoria. Queste sottounità di archiviazione consentono l'elaborazione parallela e riducono al minimo lo spostamento dei dati. Samsung afferma di poter raggiungere le prestazioni doppie del sistema sopra indicate con il 70% in meno di consumo energetico applicando HBM-PIM alla soluzione HBM2 Aquabolt esistente. Non sono necessarie modifiche hardware o software, quindi Samsung HBM-PIM può essere inserito nei sistemi esistenti. L'HBM-PIM ha lo scopo di alleviare il collo di bottiglia nei carichi di lavoro basati sull'intelligenza artificiale come HPC, formazione e inferenza.

Disponibilità

Il Samsung HBM-PIM è ora in fase di test all’interno degli acceleratori AI da parte dei principali partner di soluzioni AI, con tutte le convalide che dovrebbero essere completate entro la prima metà di quest’anno.

Samsung

Interagisci con StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS feed