Naarmate industrieën AI blijven gebruiken en integreren in de computerinfrastructuur, worden hulpbronnen belast en wordt energie-efficiëntie moeilijk vol te houden. Al met al leveren versneld computergebruik en de onderliggende technologie de efficiëntie om de volgende generatie innovatie te ontwikkelen, met NVIDIA GPU's, de NVIDIA AI en next-gen processors zoals de nieuwe 4e generatie Intel Xeon schaalbaar processors platform voorop.
Naarmate industrieën AI blijven gebruiken en integreren in de computerinfrastructuur, worden hulpbronnen belast en wordt energie-efficiëntie moeilijk vol te houden. Al met al leveren versneld computergebruik en de onderliggende technologie de efficiëntie om de volgende generatie innovatie te ontwikkelen, met NVIDIA GPU's, de NVIDIA AI en next-gen processors zoals de nieuwe 4e generatie Intel Xeon schaalbaar processors platform voorop.
Met de lancering van de 4e generatie Intel Xeon schaalbare processor geven NVIDIA en haar partners het startsein voor een nieuwe generatie energie-efficiënte AI-versnelde computersystemen. In combinatie met NVIDIA H100 Tensor Core GPU's, leveren deze systemen aanzienlijk hogere prestaties, grotere schaal en hogere efficiëntie dan eerdere generaties.
Nieuwe systemen voegen prestaties en efficiëntie toe aan Enterprise AI
Nieuwe systemen aangedreven door NVIDIA en Intel stellen ondernemingen in staat om werklasten 25x efficiënter uit te voeren dan datacenterservers met alleen CPU. Het leveren van deze prestaties per watt staat gelijk aan het verbruik van minder stroom, wat meer vermogen betekent voor datacenters om moderne workloads te versnellen.
De nieuwe generatie NVIDIA-versnelde servers versnelt training en inferentie, waardoor de energie-efficiëntie met 3.5x wordt verhoogd, wat zich vertaalt in daadwerkelijke besparingen, waardoor de TCO voor AI-datacenters met 3x wordt verlaagd.
4e generatie Intel Xeon CPU's bieden ondersteuning voor PCIe Gen 5
De nieuwe 4e generatie Intel Xeon CPU ondersteunt PCIe Gen 5, waardoor de gegevensoverdrachtsnelheden van CPU naar NVIDIA GPU's en netwerken worden verdubbeld. De verhoogde PCIe-lanes zorgen voor een grotere dichtheid van GPU's en supersnelle netwerken binnen elke server.
Snellere geheugenbandbreedte verbetert de prestaties van data-intensieve workloads zoals AI, terwijl netwerksnelheden tot 400 gigabit per seconde (Gbps) per verbinding snellere gegevensoverdracht tussen servers en opslag ondersteunen.
NVIDIA DGX H100-systemen en -servers van NVIDIA-partners die NVIDIA DGX H100-systemen en -servers leveren die zijn uitgerust met H100 PCIe GPU's, worden geleverd met een licentie voor NVIDIA AI Enterprise, een end-to-end, veilige, cloud-native suite van AI-ontwikkelings- en -implementatiesoftware, die een compleet platform biedt voor efficiënte enterprise AI.
NVIDIA DGX H100-systemen aangedreven door NVIDIA Base Command
NVIDIA DGX H100-systemen bieden een geoptimaliseerd platform dat wordt aangedreven door de NVIDIA-basiscommando besturingssysteem ontworpen voor het versnelde datacenter. Elk systeem beschikt over acht NVIDIA H100 GPU's, 10 NVIDIA ConnectX-7 netwerkadapters en dubbele 4e generatie Intel Xeon schaalbare processors om de prestaties te leveren die nodig zijn om grote generatieve AI-modellen, grote taalmodellen, aanbevelingssystemen en meer te bouwen.
Gecombineerd met NVIDIA-netwerken zal deze architectuur naar verwachting een boost geven aan efficiënt computergebruik op schaal en tot 9x betere prestaties leveren dan de vorige generatie en 20x tot 40x betere prestaties dan niet-versnelde X86 dual-socket servers voor AI-training en HPC-workloads. Met dat soort prestaties kon wat vroeger een taalmodel 40 dagen kostte, in minder dan twee dagen worden voltooid.
De NVIDIA DGX H100-systemen zijn de bouwstenen van de NVIDIA DGX SuperPOD, die tot één exaflop aan AI-prestaties levert, een sprong in efficiëntie voor grootschalige AI-implementatie in ondernemingen.
NVIDIA-partners verhogen de efficiëntie van het datacenter
Voor AI-datacenterworkloads stellen NVIDIA H100 GPU's ondernemingen in staat om applicaties efficiënter te bouwen en te implementeren.
NVIDIA-partners, waaronder ASUS, Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo, QCT en Supermicro, zullen naar verwachting binnenkort beginnen met het leveren van het nieuwe portfolio van H100 GPU's en 4e generatie Intel Xeon Scalable CPU's-servers.
Het verbinden van servers met NVIDIA ConnectX-7-netwerken en Intel 4e generatie Xeon schaalbare processors zal de efficiëntie verhogen en de infrastructuur en het stroomverbruik verminderen. NVIDIA ConnectX-7-adapters ondersteunen PCIe Gen 5 en verbindingssnelheden van 400 Gbps via Ethernet of InfiniBand, waardoor de netwerkdoorvoer tussen servers en opslag wordt verdubbeld.
De adapters ondersteunen geavanceerde netwerk-, opslag- en beveiligingsoffloads. ConnectX-7 vermindert het aantal benodigde kabels en switchpoorten, bespaart 17 procent of meer op het vermogen dat nodig is voor het netwerken van grote GPU-versnelde HPC- en AI-clusters en draagt bij aan de betere energie-efficiëntie van deze nieuwe servers.
NVIDIA AI Enterprise Software levert een full-stack AI-oplossing
Deze systemen van de volgende generatie zijn geoptimaliseerd voor NVIDIA AI Enterprise Suite. NVIDIA AI Enterprise draait op NVIDIA H100 en versnelt de datawetenschapspijplijn. Het stroomlijnt de ontwikkeling en implementatie van voorspellende AI-modellen om essentiële processen te automatiseren en snel inzicht te krijgen in data.
Met een uitgebreide bibliotheek van full-stack software, inclusief AI-workflows van referentietoepassingen, frameworks, vooraf getrainde modellen en infrastructuuroptimalisatie, biedt de software een ideale basis voor het opschalen van enterprise AI-succes.
Neem contact op met StorageReview
Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed