Interview

‘Onderwijs moet schadevergoeding van AI-bedrijven eisen’ 

Marleen Stikker
Marleen Stikker - Foto: Arie Kers

Het hoger onderwijs zou schadeclaims moeten indienen bij de makers van ChatGPT en soortgelijke AI-programma’s, zegt expert Marleen Stikker. ‘Al het werk dat we in het onderwijs en onderzoek doen, loopt schade op. De kosten zijn gigantisch.’

Kunstmatige intelligentie gaat het hoger onderwijs en wetenschappelijk onderzoek behoorlijk veranderen, maar hoe? En moeten we het allemaal maar over ons heen laten komen? ‘We moeten zelf bepalen wat we wel en niet acceptabel vinden, in plaats van meebewegen met de markt.’

Wie is Marleen Stikker?
Internetpionier Marleen Stikker (1962) sprak afgelopen maandag bij de opening van het academische jaar in de Laurenskerk over de toekomst van het onderwijs.

Ze is directeur van Waag Futurelab in Amsterdam, een ontwerp- en onderzoekscentrum rond technologie en maatschappij. Ze was een van de oprichters van De Digitale Stad, een online community en sociaal mediaplatform. Daarnaast is ze raadslid van adviesraad AWTI.

In 2019 verscheen haar boek Het internet is stuk – maar we kunnen het repareren over de invloed van grote bedrijven op het internet. Ze is ‘professor of practice’ aan de Hogeschool van Amsterdam en heeft een eredoctoraat van de Vrije Universiteit Amsterdam.

Expert Marleen Stikker kiest haar woorden zorgvuldig en wil zeker niet de indruk wekken dat ze ‘tegen’ artificial intelligence (AI) is, maar ze komt wel bij een radicale conclusie uit: het hoger onderwijs zou een schadeclaim moeten indienen bij de grote techbedrijven. 

Mystificatie 

Je hebt twee stromingen in de kritiek op AI, zegt Stikker. ‘Eén stroming heeft het over existential risks en claimt dat AI in de toekomst de mens zal onderwerpen. Die stroming komt vooral uit de techindustrie zelf. Sam Altman van OpenAI bijvoorbeeld reist heel Europa door om iedereen te vertellen dat de mensheid op het spel staat.’

Stikkers keert zich tegen zulke ideeën, alleen al omdat ze die onwetenschappelijk vindt: ‘Ze dichten AI meer dan menselijke intelligentie toe en doen alsof het een eigenstandige macht is. De menselijke intelligentie is vele malen complexer en ingenieuzer dan computing.’

Bovendien leidt het volgens Stikker de aandacht af van wat er feitelijk aan de gang is. ‘Mensen als Altman roepen in het openbaar dat er regels moet komen, terwijl zijn bedrijf in Europa aan het lobbyen is tegen AI-wetgeving.’

Die eerste “kritische” stroming is vooral een vorm van reclame, meent ze. ‘De AI-industrie voedt de mystificatie en jaagt angst aan. De samenleving weet niet meer hoe te handelen en vraagt dan hulp van dezelfde onheilsprofeten die AI over ons uitstorten.’

Grote vraagstukken 

En die tweede stroming? ‘Die kijkt naar de grote vraagstukken en problemen van AI zoals die zich in de praktijk voordoen. Daar moeten we nu mee aan de slag, anders ondermijnt AI onze democratie en zelfbeschikking. Er is geen tijd te verliezen. We moeten ons geen angst laten aanjagen, maar vragen stellen. Bijvoorbeeld: van wie zijn die data waar AI mee getraind wordt? Dat is een machtsvraagstuk. Op oneigenlijke gronden zijn wetenschappelijke en culturele producties toegeëigend. Er zijn maar een paar partijen met genoeg kapitaal om dat kunnen, en dat zijn private partijen met specifieke belangen.’ 

Deze nieuwe vorm van AI (‘generatieve AI’) wordt al ingebouwd in sociale media, werkprocessen en educatieve programma’s, waarschuwt Stikker. ‘Veel mensen doen alsof het allemaal onvermijdelijk is: we zouden het ons niet kunnen permitteren om AI buiten de deur te houden, want dan zou je studenten tekortdoen. Maar is dat ook zo? Hebben we daar onderzoek naar gedaan? Waarom laten we toe dat deze technologie zonder procedures en gecontroleerde trials de wereld in wordt geslingerd?’

‘Ze hebben zich data toegeëigend die niet van hen zijn’

Het probleem is niet dat technologie grote veranderingen teweegbrengt, legt Stikker uit. ‘Dat kennen we natuurlijk wel. Dat zal ook altijd zo blijven. Het is ook niet erg dat AI ons voor allerlei fundamentele vragen stelt, want die zijn interessant. Wat is kennis, wat is samenhang, welke bias zit er in data? Je moet ChatGPT eens een vraag stellen over een onderwerp waar je zelf echt iets van weet, dan zie je wat een onzin er soms uitkomt.’

Het probleem is dat de macht bij partijen ligt die tot dusver hebben laten zien dat ze niet goed met die macht kunnen omgaan, meent Stikker.

‘Ze hebben zich data toegeëigend die niet van hen zijn. Daar komen ook al die rechtszaken vandaan. Jan en alleman stapt naar de rechter, want die bedrijven hebben gewoon alles binnengehaald van websites en trekken zich niets aan van intellectueel eigendom of het publieke domein. Ze privatiseren data die niet van hen zijn. Ze hebben de website van Waag Futurelab bijvoorbeeld ook leeggetrokken, terwijl wij een ‘creative commons-licentie’ hanteren, die commercieel gebruik verbiedt. Mediabedrijven als The Guardian blokkeren nu bedrijven als OpenAI die hun content stelen. Universiteiten zouden dat ook moeten doen.’

Voedsel en farmacie 

Mensen kunnen al die informatie en wetenschappelijke artikelen óók lezen, maar als een AI-programma dat doet, zijn de effecten van een andere orde. ‘Denk alleen al aan de gevolgen van desinformatie. De problemen buitelen over elkaar heen. We zouden dit nooit accepteren als het bijvoorbeeld over innovaties in de farmaceutische industrie ging. Daar hebben we bepaalde mechanieken omheen gezet: je doet een uitgebreide trial, je kijkt zorgvuldig naar de gevolgen, je hebt een ethische commissie. Er zijn ook toezichthouders als het College ter Beoordeling van Geneesmiddelen (CBG) en het Europees Medicijn Agentschap (EMA). Bij innovaties van de farmaceutische industrie zeggen we niet: we moeten er meteen in meegaan, anders missen we de boot.’

Voor het onderwijs is het grote gevaar volgens haar niet dat studenten weleens ChatGPT gaan gebruiken om een redelijk essay te schrijven. Dat komt hooguit op de tweede plaats. ‘Ik zou willen dat de onderwijswereld zegt: van wie is deze technologie eigenlijk? Het onderwijs zou moeten meebepalen wat wel en niet mogelijk is met ChatGPT. Nu schieten we in de verkeerde reflex: o jee, hoe moet het verder met onze wetenschappelijke methodiek en onze toetsen? We zijn veel te volgzaam.’ 

Schade 

Sterker nog, de wetenschap en het onderwijs zouden de techbedrijven moeten aanklagen, meent Stikker. ‘Ze hebben op oneigenlijke gronden wetenschappelijke kennis opgeslorpt en brengen een product met gebreken op de markt, waar het hoger onderwijs schade van ondervindt.”’

En het probleem was te voorzien, meent Stikker, maar daar hebben de bedrijven zich niets van aangetrokken. ‘Al het werk dat we in het onderwijs en onderzoek doen, loopt schade op. En hoe hou je de integriteit van de wetenschap overeind? De kosten zijn gigantisch. Het lijkt me interessant om te onderzoeken of je een claim kunt indienen.’

Geen verbod 

Daarmee is niet gezegd dat ze tegen deze nieuwe AI is, onderstreept Marleen Stikker. ‘Ik wil niet betogen dat het verboden zou moeten worden. Maar we moeten wel greep krijgen op het proces waarmee we nieuwe technologie in de samenleving introduceren.’

AI roept natuurlijk wel allerlei interessante vragen op. ‘En dat vind ik juist heel leuk. In het onderwijs moeten we met elkaar in gesprek gaan: moeten we misschien op een andere manier gaan toetsen? Nu laten we studenten vaak een essay schrijven van het type ‘A zegt dit, B zegt dat, en nu komt mijn conclusie’. Misschien kan dat anders en moeten we meer nadruk leggen op creative writing in plaats van academisch schrijven. En stellen we wel de juiste vragen? Kunnen we studenten niet beter vragen om iets te ontwerpen in plaats van een essay te schrijven? In de techniekstudies is dat tamelijk gebruikelijk, maar dat zou in de sociale – en geesteswetenschappen ook kunnen.’ 

Data en waarheid 

De nieuwe technologie roept ook allerlei interessante vragen op over feiten en waarheid. ‘Er zitten complexe vraagstukken achter, waar je met studenten naar kunt kijken. Het is heel belangrijk dat ze begrijpen dat data en algoritmes niet neutraal zijn. Zulke vragen slaan we vaak over, terwijl ze fundamenteel zijn om te begrijpen waar je mee werkt. Dat zie je ook in andere vakgebieden, bijvoorbeeld de economie: hoe meet je welvaart?’

“Waarom denken we de werkelijkheid tot data te kunnen reduceren?” 

De vraag is ook wat we intelligentie noemen. ‘Het heet artificial intelligence, maar het is eigenlijk computing, oftewel de verwerking van data. Dat vind ik eigenlijk het allerspannendste rond AI: de aannames over intelligentie en bewustzijn. Waarom denken we dat we de werkelijkheid tot data kunnen reduceren? Je ziet ook altijd een waarschuwing bij die programma’s staan: ze kunnen ernaast zitten. Zo onttrekken ze zich dus aan hun verantwoordelijkheid, wat je als mens niet kunt doen.’ 

Om hier inzicht in te krijgen, moeten de verschillende wetenschappen meer samenwerken, meent ze. ‘Straks kun je niet meer zeggen: hier heb je bèta, daar heb je alfa, daar heb je gamma. Je moet vraagstukken in samenhang zien, vanuit allerlei disciplines. Studenten moeten samen die algoritmes leren bevragen.’

Financiering 

Eigenlijk moet ook de financiering van het onderzoek naar AI op de schop, meent Marleen Stikker. ‘Nu kunnen we alleen een grootschalig onderzoek doen als het bedrijfsleven eraan meebetaalt. Een vakbond heeft bijvoorbeeld de middelen niet om zoiets te financieren. Dat doet iets met de vraagstelling. De slachtoffers van de toeslagenaffaire hebben geen toegang tot data of AI-systemen om de overheid te controleren.’ 

Stikker is zelf raadslid bij de Adviesraad voor Wetenschap, Technologie en Innovatie (AWTI). Kan dat adviesorgaan zich er niet op storten? Stikker spreekt op persoonlijke titel, onderstreept ze, en niet namens de AWTI. ‘Maar verschillende adviezen sluiten hier zeker bij aan.’  

Ze verwijst naar een recent advies over ‘erkennen en waarderen’ en de kwaliteit van wetenschap. Verder werkt de AWTI aan een advies over innovatie in de sociale – en geesteswetenschappen, dat begin volgend jaar uitkomt. “Ook daarin kunnen we niet om AI heen.” 

Taalmodel 

Wat studenten in elk geval moeten begrijpen, is dat zogeheten generatieve AI een taalmodel is. ‘Het genereert tekst en beeld op basis van computing, maar van echte betekenis is geen sprake. De modellen produceren een soort reader’s digest van verschillende databronnen, en geen waarheid.’