Een nieuwe ontwikkeling maakt het mogelijk om grote AI-modellen te gebruiken met minder rekenkracht en tegen lagere kosten. Het bedrijf Multiverse Computing heeft een API gelanceerd die toegang geeft tot gecomprimeerde versies van modellen van onder andere OpenAI, Meta, DeepSeek en Mistral AI. Dit betekent dat je als ondernemer dezelfde functionaliteit kunt benaderen, maar dan met een lichtere versie van het model dat minder resources verbruikt.
Wat betekent comprimeren voor een AI-model?
Comprimeren is in deze context het efficiënter maken van een bestaand AI-model zonder de kernprestaties te verliezen. Het is vergelijkbaar met het comprimeren van een grote afbeelding naar een kleiner bestand dat er nog steeds goed uitziet. Voor een ondernemer vertaalt dit zich direct in lagere kosten voor cloud-rekenkracht of de mogelijkheid om het model op minder krachtige hardware te draaien. Volgens Multiverse Computing zijn hun gecomprimeerde modellen gebaseerd op de originele modellen van de grote AI-labs.
De praktische kant: een app en een API
Multiverse Computing brengt deze technologie naar een breder publiek via twee kanalen. Enerzijds is er een app die de mogelijkheden van de gecomprimeerde modellen demonstreert. Anderzijds, en dat is voor integratie in bedrijfsprocessen relevanter, is er een API gelanceerd. Een API is een koppelvlak waarmee software van een bedrijf kan communiceren met externe diensten. Deze API maakt de gecomprimeerde modellen breder beschikbaar voor ontwikkelaars en bedrijven die ze willen integreren in hun eigen applicaties of workflows.
Hoe kun je dit vandaag toepassen?
De praktische toepassing hangt af van jouw situatie. Via geprompt.nl/stel-je-vraag kun je een vraag stellen die we uitwerken tot een artikel op maat.
De toepassingen in dit artikel zijn suggesties op basis van het bronartikel, geen gevalideerd advies.
Bron: Techcrunch