IBM integrerar två av Metas senaste Llama 4-modeller, Scout och Maverick, i watsonx.ai-plattformen.
IBM har integrerat Metas senaste AI-modeller med öppen källkod—Lama 4 Scout and Llama 4 Maverick – in på sin watsonx.ai-plattform. Denna nästa generations blandning av expertmodeller (MoE) är konstruerad för att leverera högpresterande multimodala funktioner med avsevärt förbättrad kostnadseffektivitet, skalbarhet och processorkraft. Med tillägget av Llama 4 stöder IBM nu 13 metamodeller på watsonx.ai, vilket förstärker dess engagemang för en öppen, flermodellsstrategi för generativ AI.
Blandning av experter Arkitektur: effektivitet utan kompromisser
Metas nya Llama 4-modeller innebär ett betydande framsteg inom AI-arkitekturen. Båda modellerna använder MoE, som smart bara aktiverar en delmängd av modell "experter" för varje token, istället för att engagera hela nätverket. Denna riktade slutledningsstrategi ökar genomströmningen och minskar driftskostnaderna utan att kompromissa med kvaliteten.
Flame 4 Scout har totalt 109 miljarder parametrar fördelade på 16 experter, men bara 17 miljarder parametrar är aktiva under slutledning. Denna effektiva konfiguration möjliggör större samtidighet och snabbare svarstider samtidigt som den levererar exceptionell prestanda för kodning, långa sammanhangsresonemang och bildförståelseuppgifter. Trots sitt kompakta fotavtryck är Scout tränad på 40 biljoner tokens och överträffar modeller med betydligt större aktiva parameteruppsättningar.
Flame 4 Maverick tar saker vidare med 400 miljarder parametrar och 128 experter, som fortfarande arbetar med bara 17 miljarder aktiva parametrar per slutledning. Meta rapporterar att Maverick överträffar OpenAI:s GPT-4o och Googles Gemini 2.0 Flash över hela linjen på multimodala riktmärken, och den matchar DeepSeek-V3:s prestanda på resonemang och kodningsarbetsbelastningar, trots att den är mycket effektivare.
Modell | Totala parametrar | Aktiva parametrar | Antal experter | Kontextfönster |
---|---|---|---|---|
Flame 4 Scout | 109B | 17B | 16 | 10 miljoner tokens |
Flame 4 Maverick | 400B | 17B | 128 | 10 miljoner tokens |
Leading the Way i Long-Context AI
Llama 4 Scout introducerar ett banbrytande sammanhangsfönster på upp till 10 miljoner tokens – för närvarande det längsta i branschen. Detta framsteg möjliggör sammanfattning av flera dokument, djupgående kodbasanalys och långsiktig användaranpassning. Meta tillskriver denna milstolpe två arkitektoniska innovationer: interfolierade uppmärksamhetslager (utan positionella inbäddningar) och en inferens-tid uppmärksamhetsskalningsteknik. Dessa förbättringar, gemensamt kallade "iRope", för Meta närmare sin vision av oändlig kontextlängd AI.
Inbyggd multimodalitet för användning i verkliga fall
Traditionella LLM:er tränas enbart på text och anpassas sedan för andra datatyper. Däremot anses Llama 4-modeller vara "natively multimodala", vilket innebär att de tränas från grunden med en kombination av text-, bild- och videodata. Detta gör det möjligt för dem att hantera olika typer av input naturligt och ge mer integrerade, sammanhangsmedvetna resultat.
Under utbildningen smälter modellerna samman visuella och språkliga data i tidiga bearbetningsstadier, vilket effektivt lär systemet att tolka och resonera över olika modaliteter samtidigt. Resultatet är överlägsen prestanda i bildbaserat resonemang, inklusive förmågan att bearbeta flera bilder per prompt och associera specifika visuella element med textsvar.
Enterprise Deployment på IBM watsonx
Med watsonx.ai kan utvecklare och företag komma åt Llama 4 Scout eller Maverick och finjustera, destillera och distribuera dem i molnmiljöer, lokala miljöer eller kantmiljöer. IBMs företagsplattform stöder hela AI-livscykeln och tillhandahåller verktyg för utvecklare på alla kompetensnivåer – från kod till miljöer med låg kod och ingen kod.
watsonx.ai inkluderar förbyggda integrationer med vektordatabaser, agentramverk och avancerad infrastruktur som gör det enkelt att operationalisera AI i stor skala. Robusta styrverktyg säkerställer efterlevnad, säkerhet och revisionsbarhet i företagsklass, vilket hjälper team att bygga ansvarsfullt och implementera snabbare.
En strategisk allians för AI-transformation
IBM:s partnerskap med Meta förenar öppen innovation med praktisk företagsberedskap. När Meta utvidgar gränserna för modellarkitektur, levererar IBM den infrastruktur, styrning och distributionsflexibilitet som moderna företag kräver för att röra sig snabbt utan att offra kontroll eller kostnadseffektivitet.
Llama 4:s ankomst till watsonx.ai förser IBM-klienter med en ny uppsättning högpresterande verktyg för att låsa upp värde i ett brett spektrum av användningsfall – utan leverantörslåsning och med försäkran om att de fungerar på en plattform designad för företaget.
Engagera dig med StorageReview
Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde