Meer kennis algoritmen nodig op scholen, 'anders risico op discriminatie'
Scholen en onderwijzers moeten meer bewust worden gemaakt van de risico's van algoritmen. Daarvoor pleit het College voor de Rechten van de Mens, na onderzoek van de toepassing van die algoritmen op scholen.
Dergelijke algoritmen worden op steeds grotere schaal ingezet in het onderwijs. Dat loopt uiteen van lesmateriaal dat zich automatisch aanpast aan het niveau van een leerling en programma's die zelfstandig nakijken tot algoritmes die fraudeurs opsporen.
Deze kunnen werk uit handen van docenten nemen, maar er kleven ook risico's aan, benadrukt het College voor de Rechten van de Mens. Zo is er op scholen vaak te weinig kennis in huis om dergelijke technologie op een verantwoorde manier in te zetten. Hierdoor lopen leerlingen onnodig veel risico op discriminatie door algoritmes, waarschuwt het College.
In het onderzoek, dat werd uitgevoerd door KBA Nijmegen en ResearchNed in opdracht van het College, is gekeken hoe algoritmes nu in het onderwijs worden ingezet en welke risico's op discriminatie er zijn. "Wat ons opviel is dat de schaal waarop algoritmes worden gebruikt in het onderwijs heel fors is toegenomen", zegt Charlotte Baarda, projectleider van het onderzoek.
Volgens Baarda gebruikt ongeveer de helft van de scholen in het basisonderwijs inmiddels zogenoemde adaptieve leersystemen. Bij dit soort systemen wordt de lesstof aangepast aan het gedrag van een leerling.
Zo zal een leerling die veel fouten maakt bij opdrachten in het vervolg makkelijkere oefenstof voorgelegd krijgen. Een leerling die aanzienlijk minder moeite heeft met dezelfde stof, krijgt moeilijkere vragen te beantwoorden.
Verkeerd advies
Veel scholen gebruiken programma's als Snappet of Gynzy. Een risico bij het gebruik van zo'n programma is dat het leersysteem lang niet altijd goed inschat wat het niveau is van de leerling. "Denk bijvoorbeeld aan een leerling met ADHD, dyslexie of autisme", zegt Baarda.
"De antwoorden die deze leerlingen geven op taal- en rekenopdrachten kunnen afwijken van de groep leerlingen waarop het leersysteem is getraind. Hierdoor kan het systeem deze leerlingen een lagere beoordeling geven, terwijl er een andere reden is waarom ze de oefeningen minder goed maken."
Ook verschillende andere toepassingen vergroten het risico op uitsluiting of ongelijke behandeling. Zo wordt op universiteiten en hogescholen gebruik gemaakt van anti-fraudesoftware. Baarda: "We weten dat in deze toepassingen een vooroordeel zit ingebouwd tegen studenten die zich uitdrukken in een tweede taal. Daarvan wordt eerder gedacht dat ze ChatGPT hebben gebruikt om te frauderen."
Verder lopen leerlingen met een migratieachtergrond en uit gezinnen met een laag inkomen een groter risico, aldus het onderzoek. Als systemen niet goed zijn getest, kunnen zij bestaande vooroordelen tegen deze groepen versterken en verspreiden. Dat kan weer leiden tot discriminatie en kansenongelijkheid.
De inzet van digitale leersystemen zou ook kunnen leiden tot kansenongelijkheid, omdat niet elke leerling evenveel toegang heeft tot dezelfde apparatuur, dure software en een snelle internetverbinding. Hierin bestaan volgens het College ook grote verschillen tussen scholen.
Het is zeker niet zo dat er alleen maar nadelen zitten aan het toegenomen gebruik van dit soort systemen. Zo kan het leiden tot meer inzicht in het leerproces van de leerling. Hierdoor kunnen leraren gerichter advies en begeleiding geven.
Ook kunnen de systemen veel administratief en repetitief werk uit handen van leraren nemen. "Het is vooral belangrijk dat de leraar regie houdt. Maar daar zijn docenten nu niet voldoende voor toegerust", zegt Baarda. "Onze zorg is ook dat het nu voor ouders en leerlingen vaak heel moeilijk is om te constateren of er iets fout gaat."
Afhankelijk van grote techbedrijven
Het College voor de Rechten van de Mens vindt dat scholen eisen moeten stellen aan softwareleveranciers op het gebied van gelijke behandeling, privacy, autonomie en transparantie. Een groot deel van de aangeboden software komt van grote techbedrijven zoals Apple, Google en Microsoft.
Volgens het College kan de invloed van deze bedrijven sturend zijn en scholen van hun producten afhankelijk maken. Dit terwijl scholen juist een vrije keuze moeten hebben om digitale middelen te kiezen die passen bij hun visie op goed onderwijs.
Daarbij is het volgens de organisatie ook belangrijk dat de adaptieve leersystemen uitgebreid worden getest op verschillende groepen leerlingen om de risico's op kansenongelijkheid te voorkomen. Dat gebeurt nu nog nauwelijks.
Verder ziet het instituut een rol voor de overheid om scholen hierbij te helpen. Zo kan het ministerie van Onderwijs, Cultuur en Wetenschap meer onderzoek naar de effecten van digitale systemen mogelijk maken. Ook zou het ministerie meer voorlichting kunnen geven over de risico's aan schoolbesturen, docenten, ouders en leerlingen.