Column – AI en onderwijs: een boeiende combinatie

AI en onderwijs: een boeiende combinatie! En volop in de aandacht in juni: de Maand van AI in het Onderwijs. Deze column gaat daarom over AI en onderwijs en is geschreven door twee bestuursleden van lectorenplatform PRIO: Mischa Beckers (thema Responsible Application of Data & AI, HZ) en Esther van der Stappen (Learning & Education, Avans).

 

In de (onderwijs)praktijk merken we dat er wel eens spraakverwarring ontstaat wanneer we hierover in gesprek raken met anderen. Want AI heeft op veel verschillende manieren invloed op het hoger beroepsonderwijs. Gebaseerd op de drie functies van ICT volgens van Slobbe & van Ast (2023) bespreken we in deze column drie verschijningsvormen van AI in het onderwijs:

1. Leven met AI

2. Werken met AI

3. Leren met AI

Leven met AI

Als burger krijg je in de maatschappij steeds meer te maken met AI-systemen, soms onzichtbaar of ongemerkt, wanneer je digitaal informatie zoekt of zaken doet met bedrijven (zoals banken of verzekeringsmaatschappijen) of de overheid. Steeds meer wordt van ons verwacht dat we toegerust zijn voor ‘digitaal burgerschap’. Met de grootschalige introductie van AI in bijvoorbeeld social media en overheidssystemen, wordt AI-geletterdheid (of algoritmische geletterdheid) hier een belangrijk onderdeel van. Er is weliswaar nog geen consensus over welke vaardigheden daar precies onder vallen, maar wij vinden het voorstel van Neil Selwyn (2022) een mooie aanzet. Hij beschrijft dat je AI-geletterd bent als je onder andere:

– kunt herkennen wanneer een AI-systeem gebruikt wordt;

– een basaal begrip hebt van hoe AI-systemen werken (ook wel: algoritmische verbeelding (imaginary; (Bucher, 2017));

– kunt werken met AI-systemen, bijvoorbeeld creatieve teksten schrijven met ChatGPT;

– om AI-systemen heen kunt werken, bijvoorbeeld door nepgegevens te gebruiken wanneer privégegevens worden verzameld;

– kunt herkennen wanneer menselijk handelen vereist is, bijvoorbeeld wanneer een bezwaar gemaakt moet worden tegen een ‘besluit’ gemaakt door een AI-systeem.

 

We vragen dus nogal wat van burgers. Om dit in goede banen te leiden, is vanuit alle hoeken inspanning nodig. Vanuit Europa wordt gewerkt aan de implementatie van zowel de Digital Services Act als de AI Act. Daardoor wordt de digitale markt gereguleerd en moeten aanbieders aan specifieke eisen gaan voldoen om ongewenste negatieve effecten te voorkomen. In Nederland is een algoritmeregister geïntroduceerd om de transparantie van overheidssystemen te vergroten. Organisaties die AI-systemen implementeren als onderdeel van de eigen dienstverlening, dienen hierbij niet over één nacht ijs te gaan (zie ook bij het volgende kopje Werken met AI). Als hoger beroepsonderwijs hebben we de taak om onze studenten voor te bereiden op een leven in een vergaand gedigitaliseerde en geautomatiseerde maatschappij. En specifiek onze studenten die studeren in het HBO-i domein, moeten zich als professional bewust zijn van de impact die systemen hebben op burgers, die immers niet allemaal theoretisch opgeleid zijn of even digitaal vaardig.

Werken met AI

Hierboven beschreven we al dat organisaties de verantwoordelijkheid hebben om een grondig proces te doorlopen wanneer zij AI-systemen in hun processen opnemen. Zo is het belangrijk om hier eerlijk en transparant over te zijn naar je klanten (of burgers). Cruciaal is ook om menselijk toezicht en ingrijpen te organiseren. AI is namelijk alles behalve foutloos. Om te begrijpen waarom dat zo is, gaan we even wat dieper in op wat AI is en de manier waarop AI-systemen ontwikkeld worden.

 

Er zijn veel definities van AI maar ze hebben bijna allemaal gemeen dat het gaat om computersystemen die taken kunnen uitvoeren waarvoor menselijke intelligentie nodig is. Het gaat om visuele perceptie, spraakherkenning, teksten vertalen en diverse andere taken waarbij patroonherkenning cruciaal is. Mensen gaan een leerproces door om uiteindelijk die taken onder de knie te krijgen. Ofwel, een AI-toepassing moet ook een leerproces doormaken. Bij AI heet dat proces machinaal leren (machine learning). Dat leren gebeurt door een grote hoeveelheid voorbeelden aan te bieden waarvan de uitkomst bekend is. Tijdens het machinaal leren wordt dan een model gemaakt tussen ingaande variabelen en een bekende uitkomst.  Een AI-systeem dat rotte plekken op peren in een fruitsorteermachine moet herkennen wordt getraind met veel plaatjes van peren met een bekende uitkomst (het label): wel rotte plekken of geen rotte plekken. Evenzo krijgt een AI die de concentratie fosfaat in het effluent van een rioolwaterzuiveringsinstallatie gaat voorspellen voorbeelden te zien van waarden van diverse variabelen en de daarbij bekende fosfaatconcentratie. Het ontstane model is gebaseerd op de relatie tussen die ingaande variabelen en de uitkomst. In bovenstaande voorbeelden de pixelwaarden in de plaatjes en het label (wel of geen rotte peer), respectievelijk waarden voor variabelen als nitraatconcentratie, debiet et cetera en de fosfaatconcentratie.

 

Ondanks dat de gemaakte modellen verbluffend goed kunnen werken is voorzichtigheid geboden. Is het model wel robuust genoeg om ook onder nieuwe omstandigheden, dus met data waarop het niet of minder getraind is, goed te werken? Zit er tussen de ingaande variabelen niet stiekem een aantal dat informatie bevat over de uitkomst? En hoe bepaal je überhaupt welke ingaande variabelen mogelijk bruikbaar zijn voor een model? Vaak door de relatie tussen die ingaande variabelen en de bekende uitkomst te kwantificeren. Bijvoorbeeld met een correlatiecoëfficiënt. Of, men bepaalt welke ingaande variabelen een belangrijke stem hebben in het gecreëerde model. Ook hier is voorzichtigheid is geboden. Immers, dat een correlatiecoëfficiënt of de belangrijkheid een hoge waarde hebben wil niet automatisch zeggen dat er een causaal verband bestaat! Kijk maar eens op de site Spurious Correlations (Vigen, z.d.) Het is dan ook goed dat er al enige tijd veel aandacht wordt besteed aan verantwoording voor en uitlegbaarheid van AI-applicaties. Aandacht voor causaliteit is er volop sinds Pearl dat een boost gaf (Pearl, 2019). Een ander aspect dat aandacht verdient is vooringenomenheid die in de (traings)data voorkomt, ofwel bias. Breed uitgemeten werd de AI die Amazon rond 2014 al gebruikte in hun recruitmentprogramma en dat vrouwen in het proces achterstelde (Dastin, 2018). Auteurs als Cathy O’Neill (2016) trokken aan de bel over de vele voorbeelden van ondoordacht gebruik van data en de negatieve gevolgen daarvan. Ook in Nederland zijn er voorbeelden: jullie kennen vast allemaal de toeslagenaffaire.

 

AI maakt dus fouten, maar desondanks zijn zowel vanuit de overheid als in het hoger onderwijs voorbeelden te geven waarin er té veel op AI vertrouwd werd. Daardoor werden bezwaren over de uitkomsten van die AI-systemen niet goed afgehandeld. Zo had het CJIB maanden nodig om het bezwaar van Piet uit Oudheusden over een onterechte boete voor door rood rijden af te handelen (Vermeer, 2023), en oordeelde het College van de Rechten van de Mens dat de VU een klacht over mogelijke discriminatie bij online proctoring onzorgvuldig en te langzaam heeft behandeld (College voor de Rechten van de Mens, 2023). Naast het inrichten van procedures om de eerlijkheid van besluiten te monitoren en signaleren wanneer fouten gemaakt worden, is het ook van belang dat personeel dat met AI-systemen werkt bijgeschoold wordt voor een verantwoord gebruik van die systemen.

 

In het hoger beroepsonderwijs leiden we de professionals van de toekomst op, die zeer waarschijnlijk in een werkomgeving aan de slag gaan waar AI-systemen alomtegenwoordig zijn. Per beroepsdomein zullen de precieze systemen en toepassingen verschillen, maar binnen elke opleiding zal nagedacht moeten worden over welke AI-gerelateerde beroepsvaardigheden studenten moeten ontwikkelen om straks verantwoord en professioneel hun werk te kunnen doen. Specifiek voor ict-opleidingen is het van belang dat studenten leren nadenken over de ontwerpkeuzes die zij (bij voorkeur bewust) maken tijdens de ontwikkeling van AI-systemen. Met kleine aanpassingen in de user interface kun je een AI-systeem bijvoorbeeld al veel transparanter, gebruiksvriendelijker en vertrouwenwekkender maken (Smits et al., 2023). Dergelijke ‘algorithmic affordances’ geven de mens als gebruiker meer de regie op wat er gebeurt met de uitkomst van een algoritme.

Leren met AI

Ook in het hoger onderwijs als sector zelf heeft AI haar intrede gedaan. Studenten maken massaal gebruik van ChatGPT (Smaling, 2023), terwijl het gebruik van ChatGPT zeker niet vanzelf positieve effecten heeft op leren (Abbas et al., 2024). Het is dus ook niet zozeer de vraag of studenten AI gebruiken in hun leerproces, maar hoe ze dat doen. Gezien wat we hierboven al schreven over wat studenten moeten leren tijdens hun opleiding om zowel als burger en als professional voorbereid te zijn op een wereld vol AI, is de opleiding de uitgelezen plek om dit veilig te verkennen. Wij pleiten er daarom ook voor om hierover met studenten het gesprek aan te gaan en samen te experimenteren met AI-systemen tijdens het leren. Dat gesprek kan dan gaan over vragen als: wat doet dit AI-systeem voor jou, en wat doe je nog zelf? Is dat ook wat je wilt? Hoe werkt dit systeem (ongeveer) en wat betekent dat voor de betrouwbaarheid van de uitkomst? En is het voor deze taak erg als de uitkomst niet betrouwbaar is? Wat wil je als professional zelfstandig kunnen en wat vraagt het van jou als AI met één druk op de knop en binnen één seconde hetzelfde voor je kan doen?

 

Naast dat wij als opleiders een omgeving moeten creëren waarin studenten over AI leren nadenken en er als professional mee om leren gaan, is het ook nodig dat de makers van AI-systemen hun verantwoordelijkheid nemen voor de opleiding van toekomstige generaties. Van jongeren kunnen we nog niet altijd verwachten dat ze de langetermijngevolgen van het gebruik van een bepaald AI-systeem kunnen overzien, maar van de makers ervan kunnen we best eisen dat ze hier grondig en eerlijk over hebben nagedacht, en dit communiceren aan hun gebruikers. Wie naar de apotheek gaat en medicatie ontvangt krijgt mondeling een toelichting en schriftelijk een bijsluiter over werking maar vooral ook bijwerkingen. Waarom trekken we dit niet door naar AI-systemen en voorzien we die van dit self-assessment principe: de AI-bijsluiter (Dekker, 2023). Een andere vergelijking met de medische wereld is hier op zijn plaats. Immers, voordat een medicijn op de markt komt is er een lang traject geweest met ethische procedures, experimental designs en (random) klinische trials. Een soortgelijke (gestandaardiseerde) workflow past in de ontwikkeling van verantwoorde en uitlegbare AI-systemen.

 

Voor een verantwoorde inzet van AI in het onderwijs is het volgens ons cruciaal dat zowel studenten als docenten goed geïnformeerd zijn om zelf te kunnen besluiten over hoe en waarvoor ze AI-systemen inzetten. Vele partijen zijn aan zet om die verantwoorde inzet van AI in het onderwijs te bereiken. Dat is nodig, en dat is mogelijk: onze toekomst maken we samen!

Referenties

Abbas, M., Jam, F. A., & Khan, T. I. (2024). Is it harmful or helpful? Examining the causes and consequences of generative AI usage among university students. International Journal of Educational Technology in Higher Education, 21(1), 10. https://doi.org/10.1186/s41239-024-00444-7

Bucher, T. (2017). The algorithmic imaginary: Exploring the ordinary affects of Facebook algorithms. Information, Communication & Society, 20(1), 30-44. https://doi.org/10.1080/1369118X.2016.1154086

College voor de Rechten van de Mens. (2023, oktober 17). Student niet gediscrimineerd door tentamensoftware Proctorio, maar VU had de klacht zorgvuldiger moeten behandelen—Nieuwsbericht—College voor de Rechten van de Mens. Ministerie van Algemene Zaken. https://doi.org/10/17/student-niet-gediscrimineerd-door-tentamensoftware-proctorio-maar-vu-had-de-klacht-zorgvuldiger-moeten-behandelen

Dastin, J. (2018, oktober 11). Insight—Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. https://www.reuters.com/article/idUSKCN1MK0AG/

Dekker, I. (2023, december 14). ‘AI-apps in onderwijs moeten verplichte bijsluiter krijgen’. ScienceGuide. https://www.scienceguide.nl/2023/12/ai-apps-in-onderwijs-moeten-verplichte-bijsluiter-krijgen/, https://www.scienceguide.nl/2023/12/ai-apps-in-onderwijs-moeten-verplichte-bijsluiter-krijgen/

O’Neil, C. (2016). Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy (1st edition). Crown.

Pearl, J. (2019). Book of Why: The New Science of Cause and Effect. Penguin Books UK.

Selwyn, N. (2022, april 6). What should ‘digital literacy’ look like in an age of algorithms and AI? Parenting for a Digital Future. https://blogs.lse.ac.uk/parenting4digitalfuture/2022/04/06/digital-literacy-and-ai/

Smaling, E. (2023, november 16). Bijna iedereen gebruikt ChatGPT, maar plagiëren gaat studenten te ver. Erasmus Magazine. https://www.erasmusmagazine.nl/2023/11/16/bijna-iedereen-gebruikt-chatgpt-maar-plagieren-gaat-studenten-te-ver/

Smits, A., Bartels, E., Detweiler, C., & van Turnhout, K. (2023). Algorithmic Affordances in Recommender Interfaces. In J. Abdelnour Nocera, M. Kristín Lárusdóttir, H. Petrie, A. Piccinno, & M. Winckler (Red.), Human-Computer Interaction – INTERACT 2023 (pp. 605-609). Springer Nature Switzerland. https://doi.org/10.1007/978-3-031-42293-5_80

van Slobbe, P., & van Ast, M. (2023). Kleppen dicht! Uitgeverij Pica.

Vermeer, B. (2023, februari 17). Piet uit Oudheusden boos over boete voor door rood rijden: ‘Een blind paard kan zien dat ik stilsta’. BN DeStem. https://www.bndestem.nl/tilburg/piet-uit-oudheusden-boos-over-boete-voor-door-rood-rijden-een-blind-paard-kan-zien-dat-ik-stilsta~ad765b6e/

Vigen, T. (z.d.). Spurious Correlations—Correlation is not causation. TylerVigen.Com. Geraadpleegd 7 juni 2024, van https://www.tylervigen.com/spurious-correlations