Inspireren met AI

Hoe werken AI-modellen eigenlijk?

Een simpele uitleg van LLM’s en transformers

AI is inmiddels overal. Van ChatGPT tot Grammarly en zelfs je zoekmachine: achter de schermen draaien krachtige modellen die zinnen afmaken, teksten genereren of je taal corrigeren. Maar… hoe werkt dat eigenlijk? Wat gebeurt er wanneer jij een vraag stelt aan zo’n AI?

In deze blog leggen we op een toegankelijke manier uit wat een Large Language Model (LLM) is, wat een transformerdoet en waarom dat belangrijk is voor onderwijsprofessionals, beleidsmakers en nieuwsgierige denkers. Geen code, geen wiskunde – alleen heldere inzichten.

Van zinnen naar cijfers

AI snapt geen taal zoals wij dat doen. Wanneer jij typt:

“Wat is de hoofdstad van Frankrijk?”

Dan vertaalt een taalmodel deze zin naar cijfers – heel veel cijfers. Elke letter, elk woord, elke zin wordt gecodeerd in een getal, gebaseerd op eerder taalgebruik. AI heeft dus geen kennis in de traditionele zin, maar voorspelt wat er waarschijnlijk komt na een bepaalde reeks woorden.

Dit noemen we probabilistische taalmodellen: ze gokken welk woord statistisch gezien het meest logisch volgt.

Wat is een transformer-model?

Het grote brein achter moderne AI zoals ChatGPT is een zogeheten transformer. Dit architectuurtype werd in 2017 geïntroduceerd in de beroemde paper “Attention is All You Need”.

Kort door de bocht:

  • Een transformer kijkt niet alleen naar het vorige woord in een zin, maar naar alle woorden tegelijk
  • Daardoor snapt het beter de context van zinnen en vragen
  • Dit maakt het mogelijk om lange, coherente en inhoudelijk relevante antwoorden te geven

 

Je kunt het zien als een supergeavanceerde vorm van autocompletion – maar dan op hele paragrafen tegelijk.

Wat zijn LLM’s?

Large Language Models

LLM’s zijn modellen die getraind zijn op enorme hoeveelheden tekst – van Wikipedia tot boeken, fora, wetenschappelijke artikelen en internetpagina’s. Denk aan miljarden zinnen.

Een model zoals GPT-4 (dat achter ChatGPT zit) heeft zoveel patronen gezien dat het nu:

  • Teksten kan schrijven in bijna elke stijl
  • Samenvattingen kan maken
  • Vragen kan beantwoorden
  • En zelfs redeneringen kan simuleren

 

Maar: het begrijpt niet wat het zegt. Het simuleert begrip door patronen van taal te volgen. Dat is ook waarom AI soms hallucineert: het verzint dingen die taalkundig logisch lijken, maar inhoudelijk onjuist zijn (Nature, 2023).

Waarom is dit belangrijk voor onderwijsprofessionals?

Als je AI wilt inzetten in het onderwijs – of er überhaupt over wilt praten met studenten – moet je dit soort basisbegrip hebben. Want alleen dan kun je:

  • Realistische verwachtingen hebben van AI-tools
  • Studenten leren kritisch omgaan met gegenereerde output
  • Verantwoord toetsen en begeleiden, zonder afhankelijk te worden van black boxes

 

Bovendien kun je studenten uitnodigen om mee te denken: “Wat denk jij dat ChatGPT doet? Waarom maakt het deze fout? Waar denk jij dat deze bron vandaan komt?”

Zo wordt AI niet iets magisch, maar iets menselijks én bespreekbaars.

Een analogie:

AI als een hyperintelligente papegaai

Een veelgebruikte metafoor komt van Emily Bender, die LLM’s beschrijft als een “stochastic parrot” (willekeurige papegaai):

“Het model herhaalt zinnen die het ooit heeft gezien, maar begrijpt de wereld niet waarover het praat.”

Dit is geen tekortkoming, maar een kenmerk. Het betekent dat we AI niet moeten vertrouwen als waarheid, maar wel kunnen gebruiken als stimulus voor denken, schrijven en analyseren.

Conclusie: Begrijpen is essentieel, niet optioneel

Je hoeft geen programmeur te zijn om AI te gebruiken. Maar je moet wel snappen waar je mee werkt.
Als onderwijsprofessional is het jouw rol om deze technologie:

  • In te zetten met bewustzijn
  • Te bespreken met nuance
  • En te begeleiden met kritisch denken

 

Wil je nog meer leren? Bekijk dan het AI Literacy Framework van EDUCAUSE – een praktisch kader voor AI-geletterdheid in het hoger onderwijs.