Quo vadis, AI?
Moeten we rekenen op Artificial General Intelligence (AGI) of is het aannemelijker dat kleine, maar nuttige toepassingen van AI de komende jaren een belangrijker rol gaan spelen? 42 gaat uit van het laatste scenario.

De introductie van GPT-5 door OpenAI afgelopen donderdag bracht meetbare verbeteringen aan de modellijn van OpenAI. Maar door de opgeblazen verwachtingen van CEO Sam Altman – zelfde verwachtingen creëren als mensen hebben bij stap van 3 naar 4, de PhD-vergelijking, de Manhattan-project vergelijking, van pixelated naar retina en nog een aantal meer – reageert de markt lauwtjes op de tegenvallende resultaten.
Incrementele verbeteringen
GPT-5 is daadwerkelijk een beter model dan de versies ervoor en kan zich goed meten met concurrerende modellen. Daar staat tegenover dat het model waarschijnlijk bijna tien keer duurder was om te trainen en vermoedelijk tien keer meer parameters heeft. GPT-6 gaat voor het tienvoudige van GPT-5.
De hooggespannen verwachtingen en de zevenmijlsstappen die de afgelopen tijd zijn gemaakt, maken duidelijk dat eerdere verbeteringen revolutionair waren en dat mensen meer van hetzelfde verwachten. Ten onrechte, want de kosten om de modellen te verbeteren worden hoger, terwijl de meeropbrengsten afnemen. Voor wie het wil zien, is de trend duidelijk: op korte termijn zullen nieuwe verbeteringen vooral incrementeel zijn en niet meer de sprongen laten zien die we eerder zagen.
Geen AGI met LLM-technologie
Yann Lecun, Chief Scientist van Meta en Turing prijswinnaar, claimt dat met het opschalen van de huidige LLM-technologie geen Artifical General Intelligence (AGI) bereikt zal gaan worden, ondanks dat er nuttige toepassingen zullen zijn voor de technologie. Er is tenminste één grote doorbraak, mogelijk meer, nodig om AGI te bereiken.
Yann LeCun: "we gaan geen AGI bereiken door LLM's op te schalen"
Dat geeft te denken over de stortvloed aan berichtgeving die we momenteel over ons heen krijgen: Bad AI, de gesel van de mensheid en Good AI, de redder ervan. Niemand weet hoe het allemaal zal lopen, maar de beperkingen van de huidige techniek zetten een keiharde rem op de meest extreme scenario's die geschetst worden. Laat je dus niet gekmaken.
Hype, zowel in de richting van utopie als dystopie
Kleiner, sneller en taakgericht
In een paper van Belcak et al wordt betoogd dat de toekomst van Agentic AI gevormd zal worden door kleine taalmodellen, SLM's in plaats van LLM's. Dit is een voor de hand liggend scenario, maar minder sexy dan het grote robotbrein waar de bulk van de wereld momenteel de aandacht op richt.
Waar gaat het om? Nou, kleine modellen, met minder dan 10 miljard parameters, die specifiek getraind worden op taken die ze moeten uitvoeren. Deze modellen werken samen met de software waarin ze geplaatst worden en voeren daar de taken uit die ze zijn toegewezen.
In veel gevallen hoeft een SLM niet eens apart getraind te worden en kun je prima uit te de voeten met kleinere LLM's, zoals bijvoorbeeld Gemini Flash of GPT-5 nano, maar dan middels context engineering voorzien van de juiste prompt context. Onze tests laten zien dat je met deze modellen correct functionerende, taakgerichte agents kunt inrichten.
Kleine, taakgerichte modellen zijn goedkoper, sneller en verwarren minder snel de kennis die ze hebben met het vraagstuk waar ze mee bezig zijn. Wij denken dat er op korte termijn meer waarde te halen valt uit deze aanpak dan uit het najagen van de witte walvis die AGI heet.