This article is written with a.o. Vincent Ginis for De Morgen.
Drie jaar na de lancering van ChatGPT is het gebruik van generatieve AI alomtegenwoordig in het hoger onderwijs. Het aantal studenten dat betrapt wordt ligt laag, maar is wellicht een grote onderschatting. ‘We weten niet wat we nog niet weten.’
“Soms bekruipt je tijdens het lezen van een werkstuk van studenten een gevoel van onbehagen. Je weet dan dat er iets niet klopt, maar kan vaak niet bewijzen dat iemand de hele taak door generatieve AI heeft laten schrijven”, vertelt professor en mediëvist Steven Vanderputten (UGent). “Je hebt nog wel studenten die tegen de lamp lopen omdat ze niet nauwkeurig genoeg nalezen wat er uit de AI komt. Maar velen laten zich daardoor niet meer vangen.”
Professoren en docenten worstelen drie jaar na de lancering van ChatGPT nog steeds met de vraag hoe ze een vuist kunnen maken tegen het gebruik van generatieve AI bij lesopdrachten. Een waterdichte methode om het te herkennen bestaat er nog steeds niet. “We hebben als lesgever ook maar een beperkte tijd om iedere paper na te lezen. Als we het niet hard kunnen maken, moeten we het laten passeren”, zegt Vanderputten. “Je ziet dan net hetzelfde als in andere plagiaatprocedures: zonder bewijs wordt het al snel woord tegen woord en dan kan je niet optreden.”
‘Analyses worden fletser en teksten beginnen meer op elkaar te lijken’ - Pieter Vermeulen (KU Leuven)
“Ik heb zelf nog nooit een student kunnen ‘pakken’ op het gebruik van AI”, zegt professor literatuurwetenschap Pieter Vermeulen (KU Leuven). “Nochtans heb ik al vaker papers en thesissen gelezen met duidelijke symptomen ervan. Maar ik ben nog niet in de buurt gekomen van een manier om het met zekerheid te detecteren. Het hoeft zelfs niet eens om regelrechte fraude te gaan. Alleen al in de manier waarop studenten informatie verwerken en teksten structureren, merk je de invloed van generatieve AI. Analyses worden fletser en teksten beginnen meer op elkaar te lijken.”
“De enige momenten waarop we het echt kunnen detecteren is wanneer citaties niet kloppen.” Ook professor internationale betrekkingen Marijn Hoijtink (UAntwerpen) herkent de verhalen. Ze doet zelf onderzoek naar hoe nieuwe technologieën – zoals AI – oorlog en oorlogsvoering beïnvloeden. “Een Nederlandstalige titel van een publicatie in een Engelstalig toptijdschrift… Dan val je snel door de mand natuurlijk.”
Toch kan er zelfs dan discussie blijven bestaan. Wanneer gehallucineerde citaten geloofwaardig lijken moeten docenten al opmerkzaam zijn om die er meteen uit te pikken. Bovendien kan het dan een erg tijdrovend opzet worden om die allemaal te verifiëren. “Dat is niet altijd de moeite waard”, zegt Hoijtink.
DARK NUMBER
Sinds de lancering van ChatGPT in het najaar 2022 nam generatieve AI meteen een plaats in de plagiaatdossiers aan de hogeronderwijsinstellingen. In datzelfde academiejaar nog maakte generatieve AI meteen negentien van de 73 plagiaatdossiers uit aan de UGent. Het jaar erop lag dat in dezelfde lijn met dertien gevallen van verboden AI-gebruik. Tien studenten maakten gebruik van genAI voor een paper of test, drie deden een beroep op genAI voor hun masterproef.
Een gelijkaardig verhaal is het aan de KU Leuven. In het academiejaar 2022-2023 waren er achttien gevallen van frauduleus gebruik van AI, op een totaal van 213 onregelmatigheden. Het jaar erop 23 op een totaal van 269. Belangrijke kanttekening daarbij is wel dat het enkel gaat om gevallen waarbij een student betrapt werd en de examencommissie een sanctie oplegde. “Wellicht komt het regelmatig voor dat een docent zelf tot een overeenkomst komt met de student en geen melding doet bij de examencommissie”, zegt de persdienst van de KU Leuven. “Hierdoor liggen de cijfers aan de lage kant.”
“Het is met fraudegevallen met AI een beetje zoals met zwarte materie in het universum: we weten niet wat we nog niet weten”, zegt professor artificiële intelligentie en wiskunde Vincent Ginis (VUB). “We merken wel dat studenten er erg veel gebruik van maken. Het aantal betrappingen zal wellicht dus een serieuze onderschatting zijn van het werkelijke aantal fraudegevallen.”
Een Britse bevraging bij duizend studenten wees op een enorme toename van het gebruik van AI in het hoger onderwijs. Waar in 2024 nog ‘maar’ 66 procent van de studenten soms gebruikmaakte van AI-tools bij opdrachten, was dat in 2025 al 92 procent.
“Dat zijn natuurlijk niet allemaal fraudeurs”, zegt Ginis. Het concept van fraude is in essentie niet veranderd door de opkomst van genAI. Vroeger kon je ook al aan een slimme tante vragen om je werkstukken voor jou te maken of iemand daarvoor betalen. “GenAI heeft dat wel gedemocratiseerd: er zit zo’n slimme tante aan de toppen van iedereen zijn vingers”, zegt Ginis.
‘Als je het gevoel hebt dat een taak niet geschreven is op het niveau van die student, gaan er enkele alarmbellen af’ - Vincent Ginis (VUB)
Kunnen instellingen dan niets doen om plagiaat door het gebruik van AI te beteugelen? “Toch wel”, zegt Ginis. “Er zijn nu ook al studenten die gepakt worden.” Enerzijds zijn er de gevallen waarin een student zich een heel jaar lang niet laat zien, maar plots wel een erg goed werkstuk indient. “Als je het gevoel hebt dat een taak niet geschreven is op het niveau van die student, gaan er enkele alarmbellen af”, zegt Ginis. “Dan wordt dat verder onderzocht.”
Anderzijds doen docenten en professoren een beroep op AI-detectoren die steeds krachtiger worden. Maar naargelang de detectoren krachtiger worden, is dat ook het geval voor de AI-modellen die gebruikt worden om plagiaat mee te plegen. “Dat is het boswachter-stroperverhaal”, zegt Ginis. “Die zitten elkaar continu op de hielen.” Bovendien durven er al eens ‘valse positieven’ uit die detectie te komen, waardoor het systeem verre van waterdicht is.
Behalve bestraffend op te treden gaan de lesgevers ook meer preventief te werk. Door meer in te zetten op mondelinge verdedigingen of tussentijdse evaluaties wordt het risico op AI-fraude ingeperkt.
“We laten studenten bijvoorbeeld meer deelopdrachten indienen”, zegt Hoijtink. “Zo hebben we meer zicht op het proces dat de student doormaakt en zie je ook progressie. Dat garandeert op zijn minst dat studenten er door het jaar heen voldoende mee bezig zijn en niet alles in een keer door een AI laten schrijven.”
Wanneer studenten die processtappen mondeling moeten presenteren is dat een bijkomende grendel op de AI-deur. Het valt dan sneller op wanneer een student erg afhankelijk was van AI-output voor een taak. “Iemand die een briljant argument uiteenzet in een paper, maar het dan niet kan uitleggen… Dan weet je dat er wat schort”, zegt Vanderputten. Tegelijkertijd biedt ook dat geen uitsluitsel. “Je hebt ook studenten die nu eenmaal minder verbaal begaafd zijn”, vult Vanderputten aan.
Ook Vermeulen ziet dat een mondelinge presentatie geen wonderoplossing is: “Ik maak me er geen illusies over dat studenten in die vijftien minuten ook gewoon een AI-gegeneerde presentatie van buiten kunnen leren. Soms lijkt het bijna alsof ik naar een computer luister. Maar het is misschien de beste slechte optie.”
HELDERE TEKSTEN
Generatieve AI in de aula hoeft niet altijd slecht te zijn. De instellingen laten in veel gevallen dan ook wat ruimte voor het gebruik ervan. De richtlijnen verschillen onderling nog wat, maar meestal blijft het eindoordeel aan de docent voor wat er wel en niet kan.
“Een algemene vuistregel voor studenten: vraag niet aan een AI wat je ook niet aan een andere persoon mag vragen”, zegt Ginis. “Je mag best aan een vriend vragen om een tekst na te lezen en wat feedback te geven, maar het is een brug te ver om hem een volledig hoofdstuk te laten schrijven in jouw plaats. Met generatieve AI is het net zo.”
‘Ik doe zelf weleens wat experimenten met genAI op middeleeuwse bronnen en de resultaten zijn verbluffend’ - Steven Vanderputten - Mediëvist
Sommige docenten integreren het bovendien in hun lespraktijk. Ze leren studenten ermee aan de slag te gaan of moedigen aan dat bepaalde taken met behulp van AI gemaakt worden. “Ik doe zelf weleens wat experimenten met genAI op middeleeuwse bronnen en de resultaten zijn verbluffend”, zegt Vanderputten. “Voor het vertalen en transcriberen van manuscripten leveren sommige modellen al erg goede resultaten af. Dat zijn net taakjes die soms erg kunnen aanslepen en weinig meerwaarde hebben om ze door een mens te laten doen.”
Ook binnen de exacte wetenschappen zijn er veel mogelijkheden. In tegenstelling tot de humane wetenschappen zijn leren schrijven en een tekst structureren er minder kerncompetenties die bij het profiel van de opleiding horen. “Vroeger had je vaker wetenschappelijk erg sterke studenten die vastliepen op het schrijven van een heldere tekst”, zegt wiskundeprofessor Ann Dooms (VUB). “AI geeft hen mogelijkheden om een vlottere en stilistisch betere tekst te schrijven. Zo kunnen ze hun onderzoeksresultaten helderder overbrengen. Maar voor onderzoek binnen de wiskunde zelf schiet AI nu echt nog tekort.”
Binnen het academisch onderzoek woedt die discussie ondertussen volop. Geconfronteerd met de zware werkdruk zou AI het takenpakket van academici wat kunnen verlichten waardoor er meer tijd overblijft voor onderwijs en onderzoek.
“De bakens daarrond worden nu volop uitgezet, maar het zal academisch onderzoek wel ingrijpend veranderen”, zegt Vanderputten. “We moeten ons nu fundamenteel de vraag stellen hoe we daarmee willen omgaan. Wat kan je door een computer laten doen en wat laat je aan de mens?”