Effectieve prompt engineering bepaalt de kwaliteit van AI‑output. Met het PDEC‑Model (Prompt Design & Evaluation Cycle) volg je een gestructureerd proces van vraag tot resultaat. Deze gids beschrijft acht praktische stappen — van gedragsactie tot bijstelling — zodat je met weinig inspanning betere antwoorden uit generatieve AI haalt.
De opkomst van generatieve AI, zoals ChatGPT en Claude, brengt ongekende mogelijkheden met zich mee voor onderwijs, bedrijfsleven en creatief werk. Maar één ding blijft onderbelicht: goede output begint bij goede input.
Prompt engineering – het vak van het slim formuleren van vragen aan AI – is dé vaardigheid van de toekomst. En net zoals een goede lesopzet of beleidsnota een structuur nodig heeft, geldt dat ook voor een effectieve prompt.
Daarom ontwikkelde ik het PDEC-model: een achtstaps methode om systematisch betere prompts te ontwerpen, te testen en te verfijnen.
Prompt engineering draait om het formuleren van vragen die aansluiten bij zowel je doelstelling als het cognitieve niveau van je doelgroep. Zonder structuur leidt een vaag verzoek vaak tot irrelevante of incomplete output. Het PDEC‑Model biedt een wetenschappelijk onderbouwde aanpak, met duidelijke fasen voor ontwerpen, evalueren en bijstellen van prompts, zoals beschreven in mijn artikel over AI-geletterdheid voor docenten: 5 stappen.
Voordelen PDEC‑Model:
Consistente resultaten over meerdere AI‑sessies
Snellere iteraties dankzij systematische feedback
Direct toepasbaar in onderwijs, consultancy en research
Prompt engineering draait om precisie. Een onduidelijke prompt leidt tot onnauwkeurige of irrelevante AI-antwoord. Hieronder voorbeelden:
Type | Prompt (Slecht) | Prompt (Goed) |
Analyse | “Vertel me over klimaatverandering” | “Analyseer drie belangrijkste oorzaken van klimaatverandering op basis van IPCC-rapporten en geef per oorzaak wetenschappelijke referenties.” |
Vergelijking | “Vergelijk lerarengedrag” | “Vergelijk de effectiviteit van direct instructie en constructivistisch leren bij wiskundelessen aan vmbo-leerlingen met concrete voorbeelden.” |
Creatie | “Maak vragen over AI” | “Genereer vijf essayvragen over de impact van generatieve AI in het hoger onderwijs, inclusief beoordelingscriteria en moeilijkheidsniveau.” |
Deze goede prompts bevatten:
Duidelijke actiewerkwoorden (Analyseer, Vergelijk, Genereer) voor cognitief niveau.
Specifieke context (IPCC-rapporten, vmbo-leerlingen, hoger onderwijs) voor relevantie.
Randvoorwaarden (aantal items, bronvermelding, moeilijkheidsniveau) voor consistentie.
Door deze voorbeelden te volgen, verbeter je direct je prompt engineering en haal je hoogwaardige output uit generatieve AI-systemen.
Fase | Beschrijving | Praktische tip |
---|---|---|
1. Gedrag(Behaviour) | Kies een helder actiewerkwoord (bijv. analyseren, vergelijken). | Gebruik verledentijdige vorm (Bijvoorbeeld “Vergelijk …”). |
2. Inhoud(Domain) | Specificeer het onderwerp of de focus. | Voeg keywords toe zoals “onderwijsinnovatie”. |
3. Voorwaarden(Constraints) | Bepaal stijl, lengte en bronvereisten. | Bijvoorbeeld “Gebruik maximaal 200 woorden” en “in academische toon”. |
4. Context(Environment) | Beschrijf de toepassing of doelgroep. | “Voor HBO‑studenten met basiskennis AI.” |
5. Hulpmiddelen(Tools) | Benoem theorieën of datasets. | “Gebaseerd op transformer-architecturen (Vaswani et al., 2017).” |
6. Prestatie(Expected Output) | Omschrijf het gewenste eindresultaat. | “Geef een lijst van 5 aanbevelingen.” |
7. Evaluatie(Evaluation) | Beoordeel output op juistheid en relevantie. | Gebruik een checklist of rubrica. |
8. Bijstelling(Correction) | Herformuleer en verfijn je prompt. | Documenteer verschillen in een prompt-log. |
Naast PDEC kun je profiteren van andere prompt-tuning methodieken en actiegerichte woordklassen (“BoKS”) om je prompts te verfijnen:
Prefix-tuning & prompt tuning: lichtgewicht technieken om modelgedrag te sturen via learnable vectors. Zie de arXiv-paper “Prefix-Tuning” (promptingguide.ai) en het Manning-boek Prompt Engineering in Practice(manning.com).
BoKS-woordklassen (Behaviour, Knowledge, Style): een acroniem om prompt-elementen te organiseren:
Behaviour: actiegerichte werkwoorden (analyseer, vergelijk, genereer)
Knowledge: specifieke bronnen of frameworks (IPCC-rapporten, EDUCAUSE AI-literacy framework)
Style: toon, lengte en format (academisch, max. 150 woorden)
Prompt repositories en approfonderingen vind je bij DAIR.AI’s Prompt Engineering Guide (github.com), met talloze voorbeelden en patterns.
Conclusie & vervolgstappen
Prompt engineering met het PDEC‑Model helpt je snel betere, betrouwbare AI‑antwoorden te genereren. Kortom:structureer je prompts via de acht fasen en ervaar directe verbetering.
Plan een workshop: mail info@inspirerenmetai.nl