Inspireren met AI

AI‑opportunisten:

Waarom oppervlakkige expertise
een structureel risico vormt

In mijn recente professionele ervaringen—zowel binnen de muren van mijn hogeschool als tijdens diverse externe lezingen, “aan tafel” sessies en paneldiscussies—observeer ik een zorgwekkende trend: individuen zonder substantiële achtergrond in kunstmatige intelligentie, laat staan in de complexe werking van LLM’s, treden op als zelfverklaarde experts. Ze presenteren AI-toepassingen via gelikte demo’s en oppervlakkige uitleg, waarbij essentiële risico’s zoals systemische bias, alignment drift en semantische misrepresentatie onderbelicht blijven.

Deze ontwikkelingen ondermijnen niet alleen het publieke begrip van AI, maar vormen ook een bedreiging voor de legitimiteit van beleid en onderwijsontwikkeling gebaseerd op solide wetenschappelijke kennis.

Inleiding

Ik realiseer me dat dit onderwerp gevoelig ligt. Vele collega’s verdiepen zich oprecht in AI of wagen de sprong om er mee te experimenteren; dit essay is niet bedoeld om hun inzet te diskwalificeren. Mijn zorg richt zich op de structurele tendens waarbij oppervlakkige expertise beleid en praktijk begint te domineren. Met respect voor serieuze pioniers pleit ik daarom voor kritische toetsing en inhoudelijke verdieping, juist om hun werk te beschermen tegen oversimplificatie en misvatting.

Sinds de publieke uitrol van ChatGPT in november 2022 hebben onderwijsinstellingen in een ongekende versnelling AI-expertgroepen, taskforces en innovatiehubs gevormd. Deze institutionele reflex is begrijpelijk, maar problematisch zodra de onderliggende expertise ontbreekt. Wat ontstaat is een klimaat van schijnprofessionalisering—waarbij het accent ligt op de esthetiek van innovatie in plaats van epistemologische diepgang en ethische toetsing.

AI-opportunist
Definitie: Een actor die zich profileert als deskundige op het gebied van (generatieve) AI op basis van beperkte kennis, meestal geoperationaliseerd in terminologische vaardigheid en demonstratieve overtuigingskracht, maar zonder diepgaande kennis van modelarchitectuur, trainingsdata, systeembias of de sociotechnische context waarin deze modellen functioneren.

Hoewel vergelijkbare fenomenen eerder zijn waargenomen bij de opkomst van MOOCs of blockchain-technologie, onderscheidt AI zich door zijn intrinsiek talige aard en de bijbehorende autoriteitsverschuivingen: wie de taal van het model beheerst, lijkt automatisch expert. Hierdoor ontstaat een ernstig risico op beleidsbesluiten, didactische innovaties en studentbegeleiding die gestoeld zijn op narratief overwicht in plaats van wetenschappelijke onderbouwing.

Het mechanisme van versneld gecreëerde autoriteit

Fase Dynamiek Gevolg
1: Hype-injectie
(Rogers & Shoham, 2023)
Mediagenieke modellen en viral toepassingen scheppen urgentie Instellingen initiëren AI-projecten zonder strategisch plan
2: Expertisevacuüm Gebrek aan gevestigde, geïnstitutionaliseerde AI-kennis binnen het onderwijs Oppervlakkige kennis wordt als voldoende beschouwd
3: Legitimering door zichtbaarheid Presentaties, workshops en pilots lijken succesvol Oppervlakkige deskundigheid krijgt beleidsmatig gewicht
4: Institutionalisering van illusie Initiatieven worden opgeschaald en bekrachtigd in beleid Structurele besluitvorming baseert zich op onvoldoende gefundeerde aannames

Systemische risico’s voor onderwijs en beleid

  1. Cognitieve echo en bevestigingsbias Generatieve AI’s zijn taalmodellen, geen kennismodellen. Ze zijn ontworpen om plausibele tekst te genereren op basis van statistische waarschijnlijkheid. Echter, in de handen van onvoldoende geïnformeerde gebruikers worden hun antwoorden geïnterpreteerd als waarheidsclaims. Deze semantische illusie wordt door pseudo-experts versterkt via demonstraties die de inherente bevestigingsbias van het model niet expliciteren (Bender et al., 2021). Zie ook mijn artikel Hoe werken AI-taalmodellen?
  2. Epistemische reductie van complexiteit Concepten zoals dataset-bias, fine-tuning, modelkaarten (Mitchell et al., 2019), of ethische grenzen rond AI-interventies worden versimpeld tot retorische kernwoorden. Hierdoor ontstaat een epistemologisch deficit waarbij gebruikers en beleidsmakers handelen op basis van slogans in plaats van structurele analyse.
  3. Didactische ontworteling Initiatieven zoals ‘AI-studentcoaches’ of prompt-reflectietools worden geïmplementeerd zonder toetsing aan leerpsychologische, ethische en relationele dimensies van onderwijs. AI wordt een actor in pedagogische relaties zonder dat de epistemische of affectieve effecten daarvan worden begrepen of gewogen (UNESCO, 2023).
  4. Erosie van vertrouwensstructuren Wanneer overselling leidt tot falende pilots of onvoldragen beleid, ontstaat wantrouwen jegens AI als onderwijskundig instrument. Paradoxaal genoeg treft dit ook robuuste initiatieven, doordat het vertrouwen in alle AI-gebaseerde toepassingen wordt ondermijnd (OECD, 2024).

Waarom het academisch toetsingskader tekortschiet

  • Versnelling van kennisontwikkeling – De halfwaardetijd van AI-kennis wordt steeds korter. Peer-reviewed publicaties verschijnen vaak nádat beleid al is geïmplementeerd.
  • Epistemische asymmetrie – Het publiek mist de conceptuele bagage om verschil te maken tussen demonstratieve vaardigheid en analytische competentie. Daardoor worden oppervlakkige claims zelden betwijfeld.
  • Afwezigheid van formele accreditering – Er is geen erkend kwaliteitskader voor AI-trainers in onderwijscontexten. Elke presentatie met wat prompt-scripts wordt als innovatief beschouwd, ongeacht de onderliggende methodologische degelijkheid.

Aanbevelingen voor beleidsmakers en onderwijsinstellingen

  1. Trianguleer kennisdomeinen – Combineer didactische, technische én ethisch-juridische perspectieven bij elk AI-besluit. Enkel multidisciplinariteit voorkomt epistemische tunnelvisie.
  2. Stel eisen aan empirisch bewijs – Implementeer enkel AI-oplossingen wanneer er sprake is van gevalideerde use-cases, transparante modeldocumentatie (zoals model cards) en toetsbare hypothesen over leerimpact.
  3. Investeer in AI-geletterdheid als kritisch denken – AI-geletterdheid is geen vaardigheidstraining, maar een intellectuele praktijk van epistemologische, linguïstische en ethische analyse.
  4. Transparantieverplichting voor externe aanbieders – Elke externe AI-trainer, spreker of leverancier dient documentatie te overleggen over modelbeperkingen, datastructuur, biasprofielen en testresultaten.
  5. Iteratieve leerimplementaties met feedbackloops – Start klein, documenteer neveneffecten, laat docenten én studenten meedenken, en schaal pas na robuuste evaluatie. Toets niet alleen effectiviteit, maar ook legitimiteit en reproduceerbaarheid.
Conclusie: institutionele waakzaamheid vereist

Het onderwijs bevindt zich op een kruispunt. AI biedt ongekende kansen, maar ook het risico dat beslissingen over leren, beoordelen en begeleiden worden gebaseerd op retoriek in plaats van methodologische zorgvuldigheid. Wanneer AI-opportunisten het discours bepalen, verliest de instelling niet alleen grip op technologie, maar ook op haar epistemische integriteit.

Kritisch denken over AI vereist kritisch denken over wie er met gezag over AI spreekt.

Deze bijdrage is een oproep tot academische waakzaamheid en intellectuele integriteit. We moeten niet meegaan in de logica van zichtbaarheid en urgentie, maar investeren in collectieve expertise die bestand is tegen de complexiteit van het AI-tijdperk.