In mijn recente professionele ervaringen—zowel binnen de muren van mijn hogeschool als tijdens diverse externe lezingen, “aan tafel” sessies en paneldiscussies—observeer ik een zorgwekkende trend: individuen zonder substantiële achtergrond in kunstmatige intelligentie, laat staan in de complexe werking van LLM’s, treden op als zelfverklaarde experts. Ze presenteren AI-toepassingen via gelikte demo’s en oppervlakkige uitleg, waarbij essentiële risico’s zoals systemische bias, alignment drift en semantische misrepresentatie onderbelicht blijven.
Deze ontwikkelingen ondermijnen niet alleen het publieke begrip van AI, maar vormen ook een bedreiging voor de legitimiteit van beleid en onderwijsontwikkeling gebaseerd op solide wetenschappelijke kennis.
Ik realiseer me dat dit onderwerp gevoelig ligt. Vele collega’s verdiepen zich oprecht in AI of wagen de sprong om er mee te experimenteren; dit essay is niet bedoeld om hun inzet te diskwalificeren. Mijn zorg richt zich op de structurele tendens waarbij oppervlakkige expertise beleid en praktijk begint te domineren. Met respect voor serieuze pioniers pleit ik daarom voor kritische toetsing en inhoudelijke verdieping, juist om hun werk te beschermen tegen oversimplificatie en misvatting.
Sinds de publieke uitrol van ChatGPT in november 2022 hebben onderwijsinstellingen in een ongekende versnelling AI-expertgroepen, taskforces en innovatiehubs gevormd. Deze institutionele reflex is begrijpelijk, maar problematisch zodra de onderliggende expertise ontbreekt. Wat ontstaat is een klimaat van schijnprofessionalisering—waarbij het accent ligt op de esthetiek van innovatie in plaats van epistemologische diepgang en ethische toetsing.
AI-opportunist
Definitie: Een actor die zich profileert als deskundige op het gebied van (generatieve) AI op basis van beperkte kennis, meestal geoperationaliseerd in terminologische vaardigheid en demonstratieve overtuigingskracht, maar zonder diepgaande kennis van modelarchitectuur, trainingsdata, systeembias of de sociotechnische context waarin deze modellen functioneren.
Hoewel vergelijkbare fenomenen eerder zijn waargenomen bij de opkomst van MOOCs of blockchain-technologie, onderscheidt AI zich door zijn intrinsiek talige aard en de bijbehorende autoriteitsverschuivingen: wie de taal van het model beheerst, lijkt automatisch expert. Hierdoor ontstaat een ernstig risico op beleidsbesluiten, didactische innovaties en studentbegeleiding die gestoeld zijn op narratief overwicht in plaats van wetenschappelijke onderbouwing.
Fase | Dynamiek | Gevolg |
---|---|---|
1: Hype-injectie (Rogers & Shoham, 2023) |
Mediagenieke modellen en viral toepassingen scheppen urgentie | Instellingen initiëren AI-projecten zonder strategisch plan |
2: Expertisevacuüm | Gebrek aan gevestigde, geïnstitutionaliseerde AI-kennis binnen het onderwijs | Oppervlakkige kennis wordt als voldoende beschouwd |
3: Legitimering door zichtbaarheid | Presentaties, workshops en pilots lijken succesvol | Oppervlakkige deskundigheid krijgt beleidsmatig gewicht |
4: Institutionalisering van illusie | Initiatieven worden opgeschaald en bekrachtigd in beleid | Structurele besluitvorming baseert zich op onvoldoende gefundeerde aannames |
Het onderwijs bevindt zich op een kruispunt. AI biedt ongekende kansen, maar ook het risico dat beslissingen over leren, beoordelen en begeleiden worden gebaseerd op retoriek in plaats van methodologische zorgvuldigheid. Wanneer AI-opportunisten het discours bepalen, verliest de instelling niet alleen grip op technologie, maar ook op haar epistemische integriteit.
Kritisch denken over AI vereist kritisch denken over wie er met gezag over AI spreekt.
Deze bijdrage is een oproep tot academische waakzaamheid en intellectuele integriteit. We moeten niet meegaan in de logica van zichtbaarheid en urgentie, maar investeren in collectieve expertise die bestand is tegen de complexiteit van het AI-tijdperk.