Een nieuwe dienst maakt het voor ondernemers eenvoudiger en goedkoper om met geavanceerde AI-modellen te experimenteren. Het bedrijf Multiverse Computing heeft een app en een API gelanceerd waarmee gecomprimeerde versies van bekende modellen beschikbaar komen. Deze gecomprimeerde modellen, zoals die van OpenAI, Meta, DeepSeek en Mistral AI, vragen minder rekenkracht en geheugen, wat de drempel verlaagt om ze in de praktijk te testen.

De kern van het aanbod is compressie. Het comprimeren van een AI-model betekent dat het kleiner wordt gemaakt, zonder dat de prestaties drastisch achteruitgaan. Dit proces maakt het mogelijk om een model dat normaal gesproken veel rekenkracht vraagt, te draaien op minder krachtige hardware. Voor een ondernemer vertaalt dit zich direct naar lagere kosten. Je hoeft minder dure cloud-rekenkracht in te kopen of kunt het model zelfs lokaal draaien op bestaande apparatuur.

Volgens Multiverse Computing biedt hun aanpak een manier om de nieuwste modellen te benaderen zonder de bijbehorende hoge infrastructuurinvestering. De gelanceerde app dient als een showcase, waar je de mogelijkheden van de gecomprimeerde modellen kunt zien. De API maakt het vervolgens mogelijk om deze modellen te integreren in je eigen software of workflows. Dit opent de deur voor praktische toepassingen waar de kosten van een groot, on-gecomprimeerd model eerder een belemmering waren.

Hoe kun je dit vandaag toepassen?

De beschikbaarheid van gecomprimeerde modellen via een API verandert de rekensom voor veel experimenten. Waar je voorheen een dure cloudinstantie moest opstarten, kun je nu mogelijk met een eenvoudiger (en goedkoper) abonnement aan de slag. De praktische toepassing hangt sterk af van jouw specifieke situatie en welk probleem je met AI wilt oplossen.

Als je een prototype van een AI-functie voor je klanten wilt bouwen, zoals een geavanceerde chatbot of een content-samenvatter, dan zou je kunnen overwegen om te starten met een gecomprimeerd model. Dit houdt de initiële ontwikkelkosten laag en stelt je in staat om de waarde voor je klanten te valideren voordat je investeert in een duurdere, grotere versie.

Als je als ZZP’er of klein bedrijf wilt experimenteren met automatisering, maar beperkt bent door budget voor technische infrastructuur, dan biedt een lichtere API een laagdrempelige ingang. Je zou kunnen onderzoeken of een gecomprimeerd model voldoende is voor taken zoals het categoriseren van e-mails, het genereren van eerste concepten voor teksten of het analyseren van feedback.

Als je in een groter bedrijf werkt en een proof-of-concept moet goedkeuren, dan kan een kostenargument gebaseerd op gecomprimeerde modellen de doorslag geven. Je zou kunnen voorstellen om de haalbaarheid van een nieuw AI-idee eerst te testen met deze efficiëntere modellen, om zo het risico en de investering voor de organisatie te beperken.

Als je ontwikkelaar bent en applicaties bouwt voor meerdere klanten, dan biedt een API met gecomprimeerde modellen een manier om je servicekosten voorspelbaar te houden. Je zou kunnen evalueren of de prestaties voldoende zijn voor de use-cases van je klanten, waardoor je een aantrekkelijker prijsmodel kunt aanbieden zonder in te leveren op functionaliteit.

De keuze om al dan niet met gecomprimeerde modellen te werken, is een afweging tussen kosten, prestaties en complexiteit. Het nieuwe aanbod maakt het in ieder geval eenvoudiger om die afweging te maken door een extra, mogelijk kostenbesparende optie op tafel te leggen.

Bron: Techcrunch