Door: Anouk den Teuling 2 december 2025
Het is bijna onmisbaar geworden in ons leven: kunstmatige intelligentie. Verschillende winkels en bedrijven, de zorg, de filmindustrie en het onderwijs zijn voorbeelden van instanties die gebruik maken van deze zogenoemde artificial intelligence (AI). De vraag is echter welk effect dit heeft op het laatste: het onderwijs. Het heeft namelijk zowel kansen als risico’s, die soms nauw samenhangen. Eén punt wordt in ieder geval bijna overal genoemd: het zorgt ervoor dat er minder zelf nagedacht wordt.
Uit een rapport van de onderwijsinspectie dat in november verschenen is, blijkt dat zo’n 17 procent van de middelbare scholieren aan het einde van de tweede klas nog geen eenvoudige verhalen en berichten kan schrijven. De inspectie stelt dat hierbij tienduizenden leerlingen het risico lopen op laaggeletterdheid. Opvallend is, is dat de afgelopen drie jaar de lees, schrijf -en rekenvaardigheden blijven afnemen, wat is gebleken uit eerdere rapporten van de onderwijsinspectie. De vraag is echter wat de invloed van generatieve kunstmatige intelligentie (GenAI), als ChatGPT, dat drie jaar geleden geïntroduceerd is, is op de geletterdheid van scholieren in het algemeen en welke gevolgen het heeft voor het onderwijs.
Frank van Praat, Director Responsible AI aan de KPMG, stelt dat het nog te vroeg is om dit te kunnen vaststellen. Wel kijkt hij naar de effecten van generatieve AI in algemene zin, wat dus geldt voor alle gebruikers ervan. ‘’Dit soort technologie laat je eigenlijk minder zelf nadenken. De soort vaardigheden zoals het goed formuleren van een tekst komen hierbij wel onder druk te staan. Sinds de introductie van bijvoorbeeld de rekenmachine zijn we minder goed geworden om uit ons hoofd te rekenen. Of sinds de introductie van het navigatiesysteem kunnen we eigenlijk niet meer zonder en moet je niet aan een gemiddelde weggebruiker vragen hoe je zonder hulp van zo’n systeem van Rotterdam naar Amsterdam rijdt.’’ Daarnaast kan de technologie achter ChatGPT, de Large Language Models, volgens Van Praat wel heel krachtig zijn om op maat gemaakte lesstof te genereren. ‘’Je kan veel lesstof of toetsen echt op individueel niveau maken. Als een leerling meer moeite heeft met grammatica, dan kun je bij de lesstof meer nadruk leggen op de grammaticale aspecten van een tekst, terwijl een ander juist meer moeite heeft met spelling en persoonlijke lesstof kan krijgen met de focus op spelling.’’
Johan Jeuring, hoogleraar softwaretechnologie voor leren en onderwijs aan de Universiteit Utrecht, sluit zich aan bij de eerder genoemde risico’s. ‘’Een risico van het gebruiken van GenAI is dat leerlingen denken dat als ze dingen kunnen, maar dit eigenlijk toch niet echt kunnen. Je ziet vaak dat als leerlingen iets produceren, en ze hebben dan gebruik gemaakt van GenAI, dat ze over het algemeen minder goed begrijpen wat ze gedaan hebben.’’ Jeuring ziet naast een risico ook een kans voor AI in het onderwijs. Dit gaat vooral in op het geven van feedback. ‘’Er zijn heel veel situaties waarin het toch lastig is om bijvoorbeeld snel feedback te geven op een product dat een leerling geproduceerd heeft. Als je goede GenAI hebt, je goed vooronderzoek doet en je ervoor zorgt dat alles goed in elkaar zit, dan denk ik wel dat er kansen zijn dat sommige feedback sneller en van vergelijkbare kwaliteit als van een docent zou kunnen zijn.’’ Jeuring meldt hiernaast het belang van een voorzichtige aanpak betreffende AI in het onderwijs. ‘’Er zijn heel veel verhalen verschenen van mensen die uitermate optimistisch zijn over AI. Ik denk dat we lang niet genoeg weten over wat de negatieve consequenties zijn van dat vele gebruik, dus ik denk dat we dat heel goed moeten uitzoeken.’’
Mark Dingemanse, Nederlandse taalkundige en universitair hoofddocent Taal en Communicatie aan het Centrum voor Taalstudies van de Radboud Universiteit Nijmegen, gaat verder in op de risico’s van deze artificial intelligence in het onderwijs en hoe we volgens hem hiermee om moeten gaan. ‘’Laten we beginnen met de professionaliteit van leerkrachten weer serieus te nemen, net zo goed als de vindingrijkheid van leerlingen die leren om te vertrouwen op hun gezond verstand. Voor elke schijnbaar nuttige toepassing die mensen noemen, bijvoorbeeld werkvormen generen en feedback op een tekstje krijgen, zijn er meerdere zeer problematische kanten aan tekstgenerators. AI berust op oneerlijk verkregen data, nodigt uit tot afraffelen, is ondoorzichtig, maakt mensen afhankelijk, en leidt tot verlies van eigenaarschap. Onderzoek laat zien dat wie AI gebruikt vooral denkt dat ‘ie sneller is, maar eigenlijk aan snelheid inboet, en dat AI zorgt voor erosie van leerprocessen en voor het verdwijnen van leerplezier.’’ Dingemanse zegt dat leerlingen niks hebben aan iets dat een tekst uitspuwt, waarmee ze vervolgens ‘’kunnen zwaaien alsof ze het zelf gedaan hebben’’. ‘’Gewichtheffen doe je ook niet met een heftruck,’’ stelt hij.
Uit het rapport van de OCW Onderwijscommunity, die op 30 mei verschenen is, worden verschillende randvoorwaarden benoemt door onderwijsprofessionals die essentieel zijn om AI verantwoord te kunnen toepassen in de onderwijspraktijk. Zo is digitale geletterdheid, het begrijpen wat AI is en hoe het functioneert, een belangrijk punt. Ook het beoordelen van de AI-output, het kunnen inschatten wanneer het inzetten van AI het leerproces ondersteunt- en wanneer niet- en het kritisch kijken naar mogelijke ethische implicaties, zoals privacy en de gevolgen van onjuiste of misleidende informatie, zijn cruciaal voor het goed functioneren van AI in het onderwijs.
Marcel van den Eng, woordvoerder van het ministerie van Onderwijs, Cultuur en Wetenschap (OCW), licht dit verder toe. ‘’Generatieve AI biedt diverse mogelijkheden om processen te optimaliseren en gebruikers te ondersteunen bij een breed scala aan taken. Bij verantwoord gebruik kan het in het onderwijs bijdragen aan bijvoorbeeld het verbeteren van efficiëntie en het generen van oefenmateriaal. De risico’s van AI hangen echter af van factoren als de toepassing van de technologie en de intenties en expertise van de gebruiker. Het is daarom belangrijk dat het bewustzijn van en kennis over generatieve AI vergroot wordt in de samenleving. Zo kan iedereen de vruchten ervan plukken en tegelijkertijd weerbaar zijn als het gaat om de risico’s. Een voorbeeld van deze risico’s in het algemeen is eventuele selectiviteit, die het gevolg is van de gebruikte trainingsdata en modelparameters die in de systemen achter AI verankerd kunnen zijn.’’ Volgens Van den Eng moeten we ten alle tijden rekening houden met deze modelparameters en is het van groot belang om te begrijpen hoe zo’n AI nu precies in elkaar zit, om de output ervan beter te kunnen begrijpen en beoordelen.
De wet- en regelgeving van de overheid is vooral gericht op het discriminatieverbod en het gelijkheidsbeginsel zoals opgenomen in de Grondwet. Daarnaast noemt de Waardenwijzer van Kennisnet drie hoofdvoorwaarden voor verantwoord gebruik van AI: rechtvaardigheid, menselijkheid en autonomie. Dit slaat vooral op auteursrechten, een leerproces met menselijke input en eigen vaardigheden en onafhankelijkheid. Het is dus nog maar de vraag hoe kunstmatige intelligentie zich in de toekomst zal ontwikkelen. Tot nu toe zijn veel theorieën hierover nog giswerk. Eén ding is echter zeker: in de drie jaar waarin generatieve AI populair is geworden, heeft deze technologie al meerdere gevolgen gehad voor scholieren en hun (taal- en reken)vaardigheden.