In een strategische uitbreiding van zijn AI-aanbod introduceerde IBM Meta Llama 3 in zijn watsonx AI- en dataplatform, waardoor zijn bibliotheek werd verrijkt met geavanceerde mogelijkheden naast zijn eigen modellen uit de Granite-serie.
In een strategische uitbreiding van zijn AI-aanbod introduceerde IBM Meta Lama 3 aan zijn watsonx AI- en dataplatform, waardoor zijn bibliotheek wordt verrijkt met geavanceerde mogelijkheden naast zijn eigen modellen uit de Granite-serie.
Deze integratie is het nieuwste resultaat van IBM's vruchtbare partnerschap met Meta, en toont hun gedeelde inzet voor het bevorderen van een open, innovatief AI-ecosysteem via de AI Alliance. Dit consortium, dat meer dan 80 belanghebbenden uit verschillende sectoren omvat, zet zich in voor het stimuleren van AI-innovatie.
Het IBM Consulting- en Client-engineeringteam heeft Llama-modellen geïmplementeerd in verschillende real-world applicaties en pilots die zijn afgestemd op de behoeften van verschillende bedrijven. Hun samenwerking met de Recording Academy leverde met name een contentengine op die was aangepast met Llama 2, die digitale inhoud leverde die precies was afgestemd op de merkstem en -standaarden van de Academy'Academy.
Meta's onlangs uitgebrachte Llama 3 beschikt over taalmodellen die zijn uitgerust met respectievelijk 8 miljard en 70 miljard parametertellingen. Deze modellen zijn veelzijdig genoeg om een breed spectrum aan taken uit te voeren, waaronder samenvattingen, classificatie, informatie-extractie en geavanceerde, op de inhoud reagerende vragen en antwoorden. De 8B-variant is geoptimaliseerd voor snelheid, wat bevorderlijk is voor edge computing. De 70B-variant blinkt uit in het creëren van inhoud en is meer geschikt voor intensieve taken zoals conversatie-AI en uitgebreide taalanalyse. Meta heeft een prestatieverbetering opgemerkt in Llama 3 ten opzichte van zijn voorganger en is van plan extra functies, modellen en prestatieverbeteringen uit te rollen, samen met het publiceren van onderzoek naar Llama 3.
Om zijn portfolio verder te diversifiëren, levert IBM ook Code Llama 34B, speciaal ontworpen voor het genereren en vertalen van code binnen de Watsonx-omgeving. Deze Llama-modellen zijn toegankelijk via Software as a Service (SaaS) en on-premises oplossingen, waardoor klanten de AI-implementatie kunnen afstemmen op hun unieke data- en applicatiescenario's.
IBM omarmt een samenwerkingsaanpak vergelijkbaar met Meta en moedigt een dynamische uitwisseling aan tussen AI-ontwikkelaars en onderzoekers om bij te dragen aan de evolutie van open en ethische AI. De industrie anticipeert in hoge mate op de potentiële toepassingen en innovaties die Llama 3 en daaropvolgende modellen mogelijk zullen maken op het watsonx-platform.
Neem contact op met StorageReview
Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed