A NVIDIA anunciou o pacote de software Magnum IO, projetado para ajudar cientistas de dados e pesquisadores de IA e computação de alto desempenho a processar grandes quantidades de dados muito rapidamente. O Magnum IO foi otimizado para eliminar gargalos de armazenamento e entrada/saída e é cotado com velocidades de processamento de dados vinte (20) vezes mais rápidas para nós de computação multiservidor e multi-GPU ao trabalhar com conjuntos de dados massivos. Isso permitirá que as organizações realizem análises financeiras complexas, modelagem climática e outras cargas de trabalho de HPC.
A NVIDIA anunciou o pacote de software Magnum IO, projetado para ajudar cientistas de dados e pesquisadores de IA e computação de alto desempenho a processar grandes quantidades de dados muito rapidamente. O Magnum IO foi otimizado para eliminar gargalos de armazenamento e entrada/saída e é cotado com velocidades de processamento de dados vinte (20) vezes mais rápidas para nós de computação multiservidor e multi-GPU ao trabalhar com conjuntos de dados massivos. Isso permitirá que as organizações realizem análises financeiras complexas, modelagem climática e outras cargas de trabalho de HPC.
A NVIDIA fez parceria com líderes do setor em rede e armazenamento para desenvolver o Magnum IO, incluindo DataDirect Networks, Excelero, IBM, Mellanox e WekaIO. Esta versão do pacote de software também é destacada pelo GPUDirect Storage, que oferece aos pesquisadores a capacidade de ignorar CPUs ao acessar o armazenamento para acesso rápido a arquivos de dados em aplicativos como simulação, análise ou visualização.
Disponibilidade
O software NVIDIA Magnum IO já está disponível, embora o GPUDirect Storage esteja atualmente disponível apenas para um número seleto de clientes com acesso antecipado, com um lançamento mais amplo previsto para o primeiro semestre de 2020.
Inscreva-se no boletim informativo StorageReview