NVIDIA trok de aandacht tijdens AWS re:Invent door de introductie van NVIDIA NeMo Retriever, een nieuwe generatieve AI-microservice die belooft het AI-landschap van ondernemingen te verbeteren door de integratie van aangepaste grote taalmodellen (LLM's) met bedrijfsgegevens mogelijk te maken. Het doel is dat NeMo Retriever ongekend nauwkeurige antwoorden levert voor AI-toepassingen in de onderneming.
NVIDIA trok de aandacht tijdens AWS re:Invent door de introductie van NVIDIA NeMo Retriever, een nieuwe generatieve AI-microservice die belooft het AI-landschap van ondernemingen te verbeteren door de integratie van aangepaste grote taalmodellen (LLM's) met bedrijfsgegevens mogelijk te maken. Het doel is dat NeMo Retriever ongekend nauwkeurige antwoorden levert voor AI-toepassingen in de onderneming.
NVIDIA NeMo Retriever is de nieuwste toevoeging aan de NeMo-familie, bekend om zijn geavanceerde frameworks en tools die zijn ontworpen om geavanceerde generatieve AI-modellen te bouwen, aan te passen en te implementeren. Deze microservice voor semantisch ophalen op bedrijfsniveau is ontworpen om generatieve AI-applicaties te verbeteren met robuuste RAG-mogelijkheden (Retrieval-Augmented Generation).
Wat de NeMo Retriever onderscheidt, is het vermogen om nauwkeurigere antwoorden te bieden via door NVIDIA geoptimaliseerde algoritmen. Met deze microservice kunnen ontwikkelaars hun AI-applicaties naadloos verbinden met uiteenlopende bedrijfsgegevens, ongeacht de locatie – in de cloud of in datacenters. Het maakt deel uit van het NVIDIA AI Enterprise-softwareplatform en is gemakkelijk beschikbaar op de AWS Marketplace.
NVIDIA NeMo Retriever al in gebruik
De impact van de technologie is al voelbaar bij marktleiders als Cadence, Dropbox, SAP en ServiceNow die samenwerken met NVIDIA. Ze integreren deze technologie in hun op maat gemaakte generatieve AI-applicaties en -diensten en verleggen daarmee de grenzen van wat mogelijk is op het gebied van business intelligence.
“Generatieve AI introduceert innovatieve benaderingen om aan de behoeften van klanten te voldoen, zoals tools om potentiële tekortkomingen vroeg in het ontwerpproces bloot te leggen”, zegt Anirudh Devgan, president en CEO van Cadence
Cadence, een wereldleider op het gebied van ontwerp van elektronische systemen, gebruikt NeMo Retriever om RAG-functies te ontwikkelen voor AI-toepassingen in het ontwerp van industriële elektronica. Anirudh Devgan, CEO van Cadence, benadrukte het potentieel van generatieve AI bij het vroegtijdig ontdekken van ontwerpfouten, waardoor de hoogwaardige productontwikkeling wordt versneld.
In tegenstelling tot open-source RAG-toolkits komt NeMo Retriever op de markt met een productieklare houding, die commercieel levensvatbare modellen, API-stabiliteit, beveiligingspatches en bedrijfsondersteuning biedt. De geoptimaliseerde inbeddingsmodellen zijn een belangrijke technologische vooruitgang, omdat ze ingewikkelde woordrelaties vastleggen en de verwerkings- en analysemogelijkheden van LLM's verbeteren.

NVIDIA GH200 Superchip
Waarom NVIDIA NeMo Retriever belangrijk is
Het vermogen van NeMo Retriever om LLM's te verbinden met meerdere gegevensbronnen en kennisbanken is opmerkelijk. Het stelt gebruikers in staat om via eenvoudige conversatievragen met gegevens te communiceren, waardoor nauwkeurige, actuele antwoorden worden verkregen. Deze functionaliteit strekt zich uit over verschillende gegevensmodaliteiten, waaronder tekst, pdf's, afbeeldingen en video's, waardoor uitgebreide en veilige toegang tot informatie wordt gegarandeerd.
Het meest opwindende is dat NVIDIA NeMo Retriever nauwkeurigere resultaten belooft met minder training, wat de time-to-market versnelt en energie-efficiëntie ondersteunt in de ontwikkelingsworkflow van generatieve AI-applicaties.
Dit is waar NeMo Retriever echt schittert. Door RAG te integreren met LLM's overwint NeMo Retriever de beperkingen van traditionele modellen. RAG combineert de kracht van het ophalen van informatie met LLM's, met name voor vraag-antwoordtoepassingen in een open domein, waardoor de toegang van LLM's tot uitgebreide, bij te werken kennisbanken aanzienlijk wordt verbeterd.
Een kijkje in de RAG-pijplijn
NeMo Retriever optimaliseert RAG-processen, beginnend bij het coderen van de kennisbank in een offline fase. In deze fase worden documenten in verschillende formaten opgedeeld en ingebed met behulp van een deep-learning model om compacte vectorrepresentaties te produceren. Deze worden vervolgens opgeslagen in een vectordatabase, cruciaal voor latere semantische zoekopdrachten. Het inbeddingsproces is van cruciaal belang, omdat het de relaties tussen woorden vastlegt, waardoor LLM's tekstuele gegevens met grotere nauwkeurigheid kunnen verwerken en analyseren.
Onder de motorkap, tijdens de productie en bij het beantwoorden van vragen, komen de capaciteiten van NeMo Retriever echt naar voren. Het omvat twee cruciale fasen: het ophalen uit de vectordatabase en het genereren van antwoorden. Wanneer een gebruiker een zoekopdracht invoert, sluit NeMo Retriever deze zoekopdracht eerst in als een dichte vector en gebruikt deze om de vectordatabase te doorzoeken. Deze database haalt vervolgens de meest relevante documentfragmenten op die verband houden met de zoekopdracht. In de laatste fase worden deze stukjes samengevoegd tot een context, die samen met de vraag van de gebruiker in de LLM wordt ingevoerd. Dit proces zorgt ervoor dat de gegenereerde antwoorden nauwkeurig zijn en zeer relevant voor de zoekopdracht van de gebruiker.
Enterprise-uitdagingen overwinnen met NVIDIA NeMo
Het bouwen van een RAG-pijplijn voor bedrijfsapplicaties is een aanzienlijke uitdaging. Van de complexiteit van vragen uit de echte wereld tot de vraag naar multi-turn-gesprekken: ondernemingen hebben een oplossing nodig die zowel technologisch geavanceerd, compliant als commercieel haalbaar is. NeMo Retriever wil deze taak vervullen door productieklare componenten te leveren die zijn geoptimaliseerd voor lage latentie en hoge doorvoer, en belooft dat bedrijven deze mogelijkheden in hun AI-toepassingen kunnen inzetten.
NVIDIA's toewijding aan deze technologie strekt zich uit tot het voortdurend verbeteren van haar modellen en diensten, zoals bij het NVIDIA Q&A Retrieval Embedding Model. NVIDIA zegt dat het een transformer-encoder is die is verfijnd om de meest nauwkeurige inbedding te bieden voor op tekst gebaseerde vraagbeantwoording, waarbij gebruik wordt gemaakt van zowel privé- als openbare datasets.
Bedrijven voorzien van state-of-the-art AI
De praktische toepassingen van NeMo Retriever zijn enorm en gevarieerd. Van IT- en HR-hulpassistenten tot R&D-onderzoeksassistenten: het vermogen van NeMo Retriever om LLM's te verbinden met meerdere gegevensbronnen en kennisbanken stelt ondernemingen in staat om op een meer gemoedelijke, intuïtieve manier met gegevens te communiceren. NeMo Retriever staat klaar om de gebruikerservaring te verbeteren en de efficiëntie en productiviteit binnen verschillende bedrijfsfuncties binnen ondernemingen te stimuleren.
Ontwikkelaars die graag gebruik willen maken van deze revolutionaire technologie kunnen zich aanmelden voor vroege toegang tot NVIDIA NeMo Retriever.
De opwinding rond deze release is voelbaar, omdat het de huidige AI-mogelijkheden verbetert en een groot aantal mogelijkheden opent voor LLM-adoptie in de zakelijke sector. De term ‘game-changer’ wordt vaker wel dan niet gebruikt in recent AI-nieuws. Toch is NeMo Retriever een hoeksteen in het koppelen van generatieve AI en bruikbare business intelligence, en biedt het een tastbare brug tussen geavanceerde AI-mogelijkheden en echte bedrijfsapplicaties.
Neem contact op met StorageReview
Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed