Kunnen we Artificial Intelligence (AI) ten goede laten komen aan mensen in plaats van de portemonnee van internetgiganten? Met die vraag ging Trajectum-verslaggever Tristan Lof naar het afscheidssymposium van lector Marlies van Steenbergen.
Smartphones, ChatGPT, sociale media: voor menig student een must, maar ik moet er niks van hebben. Ze leiden je vooral af van hetgeen er toedoet: aandacht hebben voor je omgeving, face-to-face contact, helemaal opgaan in je hobby. Ondertussen verdienen bedrijven als Meta en X goudgeld aan onze verslaving. Reden genoeg om mijn smartphone de deur uit te doen en al mijn accounts op te zeggen.
Ondertussen weet ik dat deze kleine daad van verzet geen oplossing biedt voor iedereen. Wat als je WhatsApp nodig hebt voor je baan of studie (zoals ik pas geleden)? Wat als je vrienden je doodverklaren zodra je niet te vinden bent op Instagram? Daarom is er meer nodig. Gelukkig deelt Marlies van Steenbergen, lector Betekenisvol Digitaal Innoveren, mijn zorgen en hield ze gisteren haar afscheidssymposium over dit onderwerp. Heeft zij de oplossing in handen?
Verantwoordelijkheid nemen
Terwijl een menigte ongeduldig voor de zaal wacht (ze mogen klokslag 14:00 uur plaatsnemen), mag ik alvast even naar binnen glippen om Marlies een paar vragen te stellen. Menselijke waarden als leidraad bij digitale innovaties, waarom precies dit onderwerp? ‘De impact van digitalisering op ons leven is groot. Iedereen die zich bezighoudt met digitale toepassingen draagt daarom de verantwoordelijkheid om na te denken over de gevolgen van hun producten.’
Klinkt goed. Het had ons een hoop gedoe gescheeld als Steve Jobs had nagedacht over de eventuele gevolgen van zijn iPhone, ook al had hij de beste bedoelingen. Maar inmiddels zijn we wijzer. Het bedrijf achter ChatGPT weet vast dat het vooral nadelen met zich meebrengt. De lector geeft deze vernieuwing toch een kans: ‘Als je zelf hebt nagedacht over je essay en je gebruikt ChatGPT als hulpmiddel, dan zie ik geen problemen. Maar zodra een computer voor ons gaat nadenken, wat nu vaak gebeurt, verliezen we de vaardigheid om kritisch te blijven. Het leven moet niet té makkelijk worden.’
Goede voornemens
Het is 14:00 uur, de zaal gaat open. Het publiek bestaat, zoals vaak bij symposia, uit HU-medewerkers en onderzoekers. Hier en daar zit een clubje IT-studenten. ‘Die zijn vast gedwongen door hun docenten’, geeft Marlies toe. Terwijl de voorzitter van het college van bestuur een openingspraatje houdt en haar in het zonnetje zet, denk ik na over het effect van zo’n symposium dat voor de helft uit academische termen bestaat. Zal de boodschap ooit aankomen bij de mensen die het meest te maken krijgen met digitalisering, namelijk jongeren?
Dan komt Marlies naar voren. Op de achtergrond verschijnen boeken die mij al te bekend zijn: The Age of Surveillance Capitalism, Data Grab, How the World Thinks. Mijn enthousiasme wordt aangewakkerd. ‘Mijn lectoraat heet Betekenisvol Digitaal Innoveren. Met betekenis bedoel ik: datgene wat de wereld mooier maakt. Maar mooie bedoelingen zijn niet alles. Een bekend gezegde luidt: De weg naar de hel is geplaveid met goede voornemens. Heel mooi, een programma dat uitrekent wie kans maakt om crimineel te worden, maar plakken we dan niet te snel een label op iemand?’
Value Sensitive Design
Dat herken ik. Door onze obsessie met hokjes en AI proberen we alles te voorspellen, zonder te kijken naar de mogelijke gevaren en de menselijke eigenheid om te zich aan te passen. Maar hoe gaan we ons hiertegen wapenen? ‘Een manier is om het top down te regelen, bijvoorbeeld door EU-regelgeving of een professionele eed, zoals nu bij banken gebeurt. Maar makers kunnen ook wat doen, bijvoorbeeld door middel van Value Sensitive Design. Dat is een set vragen die hen dwingt om na te denken over de gevolgen van hun creatie.’
‘Vraag 1: wie zijn de stakeholders? Komt jouw product iedereen ten goede? Wat doe je bijvoorbeeld met mensen die geen WhatsApp gebruiken?’
Ik zit op het puntje van mijn stoel. Als voorbeeld neemt Marlies software die studenten volgt terwijl ze thuis hun examen maken. Op de PowerPoint staan alle waarden (privacy, duurzaamheid, autonomie), afgezet tegen de stakeholders. De negatieve gevolgen vormen de boventoon. ‘De student moet bijvoorbeeld aan privacy inboeten en de huisgenoten worden verdreven uit de kamer. Minpunten voor autonomie.’
Werkt het?
Hoe enthousiast ik ook ben over de VSD-methode, ik blijf mijn twijfels hebben. Zullen bedrijven, die miljarden verdienen aan hun verslavende producten, hun medewerkers echt richtlijnen opleggen die hen weren om verslavende producten te maken? Zal Meta echt kijken naar de belangen van jonge kinderen of die van de rechtstaat? Zodra Facebook geen extreemrechtse of ophitsende inhoud meer vertoont, zijn ze hun verdienmodel kwijt.
‘Richtlijnen alleen gaan ons niet helpen, we moeten ons hele narratief veranderen. Er is meer dan marktdenken en efficiëntie. Menselijke waarden zouden centraal moeten staan in digitale innovatie, niet als bijzaak.’
Helemaal mee eens. Maar hoe komen we daar? Spreken over een ander narratief is niet genoeg. Er is actie nodig. Gelukkig zijn er al mensen die dat narratief in de praktijk brengen. Wat dacht je van Signal, de privacyvriendelijke WhatsApp. Mastodon in plaats van Twitter. De Radboud Universiteit is al zover.
Wokerobot
Marlies is klaar met haar (voor mijn part veel te korte) toespraak. Na de pauze verspreidt de menigte zich over verschillende zalen waar ze hun zegje mogen doen over ‘wokerobots’ en digitale spiegels die studenten moeten leren presenteren. Want digitalisering, daar hebben we nog geen genoeg van.