AI is inmiddels overal. Van ChatGPT tot Grammarly en zelfs je zoekmachine: achter de schermen draaien krachtige modellen die zinnen afmaken, teksten genereren of je taal corrigeren. Maar… hoe werkt dat eigenlijk? Wat gebeurt er wanneer jij een vraag stelt aan zo’n AI?
In deze blog leggen we op een toegankelijke manier uit wat een Large Language Model (LLM) is, wat een transformerdoet en waarom dat belangrijk is voor onderwijsprofessionals, beleidsmakers en nieuwsgierige denkers. Geen code, geen wiskunde – alleen heldere inzichten.
AI snapt geen taal zoals wij dat doen. Wanneer jij typt:
“Wat is de hoofdstad van Frankrijk?”
Dan vertaalt een taalmodel deze zin naar cijfers – heel veel cijfers. Elke letter, elk woord, elke zin wordt gecodeerd in een getal, gebaseerd op eerder taalgebruik. AI heeft dus geen kennis in de traditionele zin, maar voorspelt wat er waarschijnlijk komt na een bepaalde reeks woorden.
Dit noemen we probabilistische taalmodellen: ze gokken welk woord statistisch gezien het meest logisch volgt.
Het grote brein achter moderne AI zoals ChatGPT is een zogeheten transformer. Dit architectuurtype werd in 2017 geïntroduceerd in de beroemde paper “Attention is All You Need”.
Kort door de bocht:
Je kunt het zien als een supergeavanceerde vorm van autocompletion – maar dan op hele paragrafen tegelijk.
LLM’s zijn modellen die getraind zijn op enorme hoeveelheden tekst – van Wikipedia tot boeken, fora, wetenschappelijke artikelen en internetpagina’s. Denk aan miljarden zinnen.
Een model zoals GPT-4 (dat achter ChatGPT zit) heeft zoveel patronen gezien dat het nu:
Maar: het begrijpt niet wat het zegt. Het simuleert begrip door patronen van taal te volgen. Dat is ook waarom AI soms hallucineert: het verzint dingen die taalkundig logisch lijken, maar inhoudelijk onjuist zijn (Nature, 2023).
Als je AI wilt inzetten in het onderwijs – of er überhaupt over wilt praten met studenten – moet je dit soort basisbegrip hebben. Want alleen dan kun je:
Bovendien kun je studenten uitnodigen om mee te denken: “Wat denk jij dat ChatGPT doet? Waarom maakt het deze fout? Waar denk jij dat deze bron vandaan komt?”
Zo wordt AI niet iets magisch, maar iets menselijks én bespreekbaars.
Een veelgebruikte metafoor komt van Emily Bender, die LLM’s beschrijft als een “stochastic parrot” (willekeurige papegaai):
“Het model herhaalt zinnen die het ooit heeft gezien, maar begrijpt de wereld niet waarover het praat.”
Dit is geen tekortkoming, maar een kenmerk. Het betekent dat we AI niet moeten vertrouwen als waarheid, maar wel kunnen gebruiken als stimulus voor denken, schrijven en analyseren.
Conclusie: Begrijpen is essentieel, niet optioneel
Je hoeft geen programmeur te zijn om AI te gebruiken. Maar je moet wel snappen waar je mee werkt.
Als onderwijsprofessional is het jouw rol om deze technologie:
Wil je nog meer leren? Bekijk dan het AI Literacy Framework van EDUCAUSE – een praktisch kader voor AI-geletterdheid in het hoger onderwijs.