Vincent Ginis published this article together with Walter Daelemans and Piet Desmet in De Tijd.
Waar AI-chatbots tot voor kort het niveau haalden van laatstejaars uit de humaniora, kan de nieuwste generatie redeneren als een doctorandus. Hoe vermijden universiteiten dat studenten de boel belazeren door artificiële intelligentie hun papers te laten schrijven? En fundamenteler: heeft het nog wel zin jongeren op te leiden in een discipline die hun AI-assistent sowieso al beter beheerst?
Een kleine twee weken geleden pakte OpenAI, het bedrijf achter de populaire chatbot ChatGPT, uit met een nieuw AI-model genaamd o1 (spreek uit als ‘oo één’ en dus niet als ‘nul één’). Oudere generaties modellen begonnen bijna meteen een antwoord te formuleren op een vraag van de gebruiker, waarbij ze na ieder woord - op basis van gigantische hoeveelheden teksten - inschatten welk woord er logischerwijs op zou moeten volgen. Het nieuwe model daarentegen is in staat om te redeneren.
Concreet betekent dit dat ChatGPT met o1 onder de motorkap eerst even ‘nadenkt’ voor het een antwoord formuleert. Daarbij worden verschillende mogelijkheden tegen elkaar afgewogen en kritisch geëvalueerd. De gebruiker kan de argumentatie ook volgen, want de chatbot formuleert netjes de verschillende stappen die hij doorlopen heeft in zijn denkproces.
OpenAI is zoals steeds weinig bescheiden in zijn ambities. Het Californische bedrijf van Sam Altman beweert dat o1 in bepaalde disciplines al even goed presteert als een academicus die een doctoraat behaald heeft.
Maar of die promopraatjes ook stroken met de realiteit? Walter Daelemans, professor computerlinguïstiek aan de Universiteit Antwerpen, is al volop aan de slag gegaan met o1 van OpenAI. ‘Het AI-model slaagt er vaak in om een complexe wetenschappelijke materie goed te beschrijven en het maakt die kennis ook vlot raadpleegbaar. Als je dat combineert met een - weliswaar oppervlakkig - redeneervermogen, kan o1 daadwerkelijk moeilijke vragen oplossen. Maar daarmee is het nog niet in staat om lateraal te denken (waarbij je kennis uit één domein toepast in een ander, red.) en tot nieuwe inzichten te komen. Dat is natuurlijk nog iets anders.’
Al valt het Daelemans wel op dat o1 positief reageert op menselijke expertise. ‘Hoe meer je zelf weet over een onderwerp, hoe meer deze nieuwe generatie AI-modellen je kan helpen.’ Volgens zijn eerste inschattingen moet je ‘wellicht zelf al een doctorstitel hebben om er een antwoord op doctorsniveau uit te krijgen. Dat stelt mij tot op zekere hoogte wel gerust dat we studenten zullen kunnen overtuigen om zelf genoeg expertise te ontwikkelen.’
Karate Kid
Want dat lijkt één van de grootste uitdagingen van de universiteiten te worden in dit AI-tijdperk: hoe motiveer je studenten nog om zich allerlei vaardigheden meester te maken terwijl ze over een immer beschikbare AI-assistent beschikken die hen het werk uit handen kan nemen?
“Als je wat met die tools gewerkt hebt, is het bijna lachwekkend nog te beweren dat daar geen creatieve dingen kunnen uitkomen."
Professor Vincent Ginis van de Artificial Intelligence Research Group en het Data Analytics Labs van de VUB, tevens gastprofessor aan de universiteit van Harvard, haalt er een opmerkelijke parallel bij. Hij verwijst naar ‘The Karate Kid’, een film uit 1984. Daarin laat de wijze mentor Mr. Miyagi zijn leerling aanvankelijk vooral repetitieve klusjes doen, zoals een auto wassen. Later blijken die bewegingen - 'Wax on, wax off' - effectief om vijandige karateslagen en -trappen af te weren.
‘Maar nu zitten we in de situatie dat een carwash de deuren geopend heeft en de studenten hun auto daar laten wassen’, stelt Ginis, waarbij de carwash de opkomst van de AI-chatbots symboliseert. Als zelfs professionele programmeurs ChatGPT, Gemini, Mistral en co. inschakelen om code te schrijven, waarom zouden de studenten dan nog hun handen vuilmaken?
Omdat dat manuele labeur hen vaardigheden leert die later de basis vormen om te kunnen programmeren op een hoger niveau, stelt Ginis. ‘Zo leren ze bijvoorbeeld de structuur van een ingewikkeld softwareprogramma te doorgronden en grotere projecten op te splitsen in kleinere delen.’ Hij beklemtoont het belang van ‘proxyvaardigheden’, die worden gebruikt om een andere vaardigheid te ondersteunen. Studenten moeten kritisch vermogen ontwikkelen, een centraal doel in een hogere opleiding.
Logboek tegen fraude
Dat wil uiteraard niet zeggen dat het studenten verboden moet worden om gebruik te maken van generatieve AI - het soort artificiële intelligentie dat we kennen van ChatGPT. De Vlaamse universiteiten hebben hier regels over opgesteld. Zo mogen de studenten AI-tools gebruiken om te brainstormen, feedback te vragen en teksten te laten nalezen op spel- of grammaticale fouten. Maar wanneer een student of onderzoeker een tekst indient die gemaakt is door iemand of iets anders, is dat plagiaat en dus een vorm van fraude. De studenten moeten te allen tijde het eigenaarschap over hun werk behouden.
Helaas is fraude niet altijd makkelijk te detecteren. Zo kan een student een paper door AI laten pennen, maar de tekst vervolgens lichtjes herschrijven vooraleer die in te dienen. Daarom trachten de universiteiten het oneigenlijke gebruik van AI-chatbots te ontmoedigen door studenten te verplichten een logboek bij te houden. Daarin tekenen ze op welke stappen gezet zijn in het onderzoek, welke tools gebruikt werden en met welk resultaat. ‘We willen zoveel mogelijk transparantie over hoe iets tot stand gekomen is’, legt Ginis uit.
Aan de KU Leuven is vicerector Piet Desmet - bevoegd voor educatieve technologie - ervan overtuigd: ‘Studenten die AI gebruiken om plagiaat te plegen, vallen door de mand.’ Hij wijst daarbij op de tekortkomingen waarmee de AI-modellen nog kampen. Chatbots kunnen goed zinnen formuleren en zonder spelfouten schrijven, maar ze laten steken vallen in de opbouw van een argumentatie, op het vlak van coherentie en qua correctheid van informatie.
De Leuvense universiteit begeleidt de studenten bij het schrijven van papers en masterproeven, en docenten worden ertoe aangezet hen kritisch te bevragen. ‘Transparantie en verantwoordelijk gedrag zijn belangrijk. Het bijhouden van een logboek bij het gebruik van generatieve AI is daarbij een mogelijkheid’, aldus de vicerector.
Nederig hulpje
Je kan het een student dus verdraaid moeilijk maken om al te gretig zijn toevlucht te zoeken tot AI. Maar daarmee schuif je de hete aardappel in feite slechts enkele jaren voor je uit. Want na de studie wacht een carrière, en daarbij sneuvelt in veel gevallen de barrière om alle mogelijke hulpbronnen aan te boren. Waarbij de vraag zich opdringt: dreigt AI, zodra ze als een nederig hulpje is binnengehaald om bepaalde taken over te nemen, niet de tussenkomst van de mens overbodig te maken en hele beroepen te ‘kapen’?
‘Vroeger was het de verwachting dat slechts wat nichejobs zouden veranderen door AI. Maar volgens mij zullen de veranderingen veel breder voelbaar worden in de samenleving’, stelt Ginis. Voorspellingen maken vindt hij moeilijk, want de invloed van nieuwe regelgeving kan heel groot zijn op de toekomstige mogelijkheden van AI-modellen.
Toch wil hij wijzen op ‘een groot misverstand’: het idee dat generatieve AI prima is voor routine- of administratieve taken, maar niet creatief kan zijn. ‘Als je wat met die tools gewerkt hebt, is het bijna lachwekkend nog te beweren dat daar geen creatieve dingen kunnen uitkomen. Of je moet je in allerlei bochten wringen en creativiteit anders definiëren dan wat gangbaar is.’
Heel wat wetenschappelijk onderzoek wijst zelfs uit dat de grote taalmodellen genre ChatGPT beter zijn in creatieve opdrachten dan mensen. ‘Het klopt dat eerdere software - denk aan Excel voor spreadsheets - vooral repetitieve taken heeft overgenomen’, vervolgt Ginis. ‘Maar de ontwikkelingen op het vlak van AI zijn van een totaal andere aard. Wat mij betreft, zijn AI-tools net niét aan te raden voor repetitieve taken. Er is immers altijd het risico dat ze beginnen te hallucineren (ze poneren dan verzinsels als feiten, red.). Ik raad ze daarentegen wel aan voor niet-repetitieve taken.’
Het is ook maar wat je creatief noemt. ‘Als AI-modellen - die geen onmiddellijke toegang hebben tot de werkelijkheid, enkel tot allerlei soorten teksten - geconfronteerd worden met ontbrekende informatie, gaan ze soms dingen bedenken om de redenering te laten kloppen en consistent te laten klinken’, vult Daelemans aan. ‘Wanneer de opdracht was een sprookje te schrijven, is dat niet erg en kan je het zelfs creatief noemen. Wanneer het over wetenschap gaat en verkeerde feiten of onbestaande referenties worden aangehaald, is dat óók creatief maar wel onbruikbaar.’
Leren redeneren
Wat voor invloed heeft dat op de opleidingen? Bij de universiteiten, die van oudsher inzetten op het aanleren van breed toepasbare vaardigheden, lijkt de impact gering. ‘Ik denk dat het een gezonde houding is om heel breed opgeleide studenten af te leveren’, zegt Ginis. ‘We geven jongeren opdrachten die hen leren te redeneren en analytisch te denken. Gelukkig staan die vaardigheden centraal in de opleiding.’
“Zingeving en betekenis, kortom alles wat een mens een mens maakt, vallen buiten de sterkte van AI. Hoe meer generatieve AI we hebben, hoe meer de menswetenschappen zullen heropleven.”
Ook Desmet beklemtoont de flexibiliteit die een universitaire scholing geeft. ‘Wij leren onze studenten leren en brengen hen een attitude bij om in het leven te staan en met nieuwe realiteiten om te gaan. Dát is de eerste taak van een universiteit.’
‘Velen zullen straks een beroep uitoefenen dat vandaag nog niet bestaat. En een aantal andere jobs zal straks niét meer bestaan. Maar dat mag een universitair eigenlijk niet verontrusten’, zegt de Leuvense vicerector.
Toch kunnen de razendsnelle ontwikkelingen van AI studenten ertoe aanzetten om bepaalde richtingen te vermijden. Wie heeft bijvoorbeeld nog zin om taalkunde of voor vertaler te studeren in dit tijdperk van de grote taalmodellen? ‘Goh, die modellen worden niet alleen gemaakt door informatici, maar ook door taalkundigen’, reageert Desmet, die ook professor Frans en toegepaste taalkunde is. ‘Taal is niet ‘weg’ omdat we in een digitale wereld zitten. Het vertalen in strikte zin wordt in hoge mate geautomatiseerd, maar creatief schrijven, literair vertalen, live communiceren in een andere taal: dat blijft allemaal relevant.’
Het utilitaire, het informatieve en het instrumentele: daarin staan de AI-modellen sterk, zegt Desmet. Maar zingeving en betekenis, kortom ‘alles wat een mens een mens maakt’, vallen daar volgens hem buiten. ‘De computer is niet intelligent, maar simuleert intelligentie.’ Meer zelfs: ‘Hoe meer generatieve AI we hebben, hoe meer de menswetenschappen zullen heropleven.’
Zichzelf overbodig maken
Een academische wereld waarin enkel nog de informaticarichtingen floreren, zou dan ook een gevaarlijke verarming betekenen, vinden Desmet en co. Ook puur vanuit het standpunt van een student valt het niet aan te bevelen, zegt Daelemans. ‘Want de verwachting is dat de AI-modellen uitgerekend op het vlak van informatica nog veel technische voortgang zullen boeken, misschien omdat dat zo’n duidelijk omschreven wereld is.’ Ze dreigen met andere woorden af te studeren in een expertise die zichzelf overbodig heeft gemaakt.
“Uiteindelijk zullen AI-tools in het basispakket van elke discipline zitten. Net zoals we ook gewoon geraakt zijn aan tekstverwerkers, rekenbladen en het internet.”
De Antwerpse professor geeft het advies om niet enkel artificiële intelligentie te studeren, maar dit te doen in combinatie met een ander wetenschapsgebied. Geneeskunde of menswetenschappen met een specialisatie in AI, bijvoorbeeld. ‘Uiteindelijk zullen AI-tools in het basispakket van elke discipline zitten. Net zoals we ook gewoon geraakt zijn aan tekstverwerkers, rekenbladen en het internet.’
‘Stilaan komen alle expertises in beeld als mogelijk vervangbaar, maar ik denk dat the human in the loop uiteindelijk altijd noodzakelijk zal blijven’, zegt Daelemans. Ginis beaamt: ‘Wat voor bias (vooroordelen, red.) heeft zo’n AI-model? Misschien zitten bepaalde voorkeuren ingebakken in die systemen die de onderzoeksresultaten kunnen beïnvloeden.’
Dat verklaart ook waarom de professoren zelf hun assistentenkorps niet hebben afgedankt en massaal hebben vervangen door een leger van artificiële doctorale medewerkers. ‘Er zijn nog altijd menselijke elementen die niet zomaar door een computer kunnen worden overgenomen’, vervolgt Ginis. ‘Menselijke interactie en verantwoordelijkheid, bijvoorbeeld.’ Dat wordt in Leuven beaamd: ‘Assistenten zijn mensen van vlees en bloed, met een creatief intellect’, besluit Desmet. ‘Generatieve AI zal hen versterken, maar niet vervangen.’