Met het Europese akkoord rond het beteugelen van Artificial Intelligence (AI) is een grote stap op het gebied van veiligheid gezet. ‘Strikte wetgeving is de manier om negatieve gevolgen, zoals nepnieuws, te bestrijden’, legt docent AI aan de hogeschool van Den Haag Fabiënne Reedijk uit. Hoogleraar Open Innovatie aan de Open Universiteit Nadine Roijakkers spreekt zich uit over wat bedrijven zelf kunnen doen om AI goed en betrouwbaar in te zetten.
AI heeft absoluut invloed op ons leven, net zoals de industriële revolutie dat had. ‘We konden daardoor in verwarmde, gasgestookte huizen gaan leven. Internet veranderde ons leven ook helemaal. We kunnen daardoor thuiswerken, bijvoorbeeld. Zo kan AI ons leven ook veranderen en het is aan ons om dat in goede banen te leiden, zodat het ons op een positieve manier verandert. Maar er zit altijd een mens achter, AI kan niet zelf initiatieven nemen. Alleen wat we AI leren, kan het doen. Hij kan niet zelf iets verzinnen en doen, alleen maar wat hem gevraagd wordt.’ Doordat AI dingen kan overnemen en het beter kan doen dan wij, zoals bijvoorbeeld het snijden van kaarsrechte, precies gelijk stukjes papier, wordt de algemene standaard hoger. Mensen eisen steeds meer, want er kan ook steeds meer.
Alles is menselijk
Ondanks dat al jarenlang voorspeld is dat computers ons werk overnemen, is er niet minder maar eerder meer werk gekomen. ‘Computers en AI nemen wel werk over van mensen, maar er zijn nog altijd mensen voor nodig om computer en AI aan te sturen. Van zichzelf zijn beide nogal dom, ze hebben de input van mensen nodig’, zegt Reedijk. ‘Neem mijn werk als docent. AI en zeker ChatGPT scheelt mij heel veel werk. Maar die tijd heb ik niet vrij, want nu heb ik meer tijd om met mijn studenten bezig te zijn en hen nog beter te helpen. Ook voor bijvoorbeeld een fruitteler kan AI veel tijd schelen, die kan rijp van onrijp fruit onderscheiden. Alleen is dat aangeleerd gedrag. Door de computer heel veel appels te laten zien en daarbij te onderscheiden welke wel en niet rijp is, leerde hij het. Maar als je datzelfde programma voor peren gebruikt, komt er niets uit.’
Tjitske de Groot van de Universiteit Utrecht doet onderzoek naar filterbubbels en vertelde in een aflevering van De Dikke Datashow hoe dat werkt: ‘Waar je voor kiest en wat je liked, dat krijg je steeds weer terug te zien. Je kent dat wel dat als je online leuke schoenen hebt gezien, je die overal terugziet. Ook zie je soortgelijke schoenen of kleding die bij die schoenen passen. Maar als het om een mening gaat, dan is het niet goed om altijd maar informatie over dezelfde mening te zien als jij hebt. Dat bekrachtigt je idee dat het waar is en klopt, dan ontstaat polarisering en denk je dat iedereen die dezelfde mening heeft als jij, gelijk heeft.’
Algoritme
Een algoritme zorgt ervoor dat je zo lang mogelijk op dat platform blijft. “Bijvoorbeeld Facebook heeft zo’n algoritme. Daarin wordt geregistreerd waar jij langer op blijft hangen en welke boodschappen jij liked. Als je bijvoorbeeld een filmpje over katten liked, dan krijg je veel meer kattenfilmpjes te zien. Dat is niet gevaarlijk, maar als je een fimpje met een Amerikaanse persoon liked die een vuurwapen gebruikt, dan zie je meer van dit soort filmpjes. Het kan zelfs zover gaan dat je gaat geloven dat alle Amerikanen altijd vuurwapens gebruiken en dat als jij een keer naar Amerika gaat, je wel bewapend moet gaan, want iedereen gebruikt daar vuurwapens. Het is gezonder om heel verschillende filmpjes te bekijken en te liken, dan kom je minder snel in een bubbel terecht.’ Met de AI-act zoals die er nu in Europa is, kan dit erg sturend zijn in hoe AI gebruikt kan en mag worden. In de USA is er (nog) geen regeling voor, dat zorgt voor een grotere bedreiging. ‘Daar kunnen mensen door een aantal keer hetzelfde soort filmpje te liken en meer informatie over een bepaald onderwerp te zoeken in een bubbel terechtkomen. Hoe langer je blijft kijken, hoe meer advertenties voorbijkomen en hoe meer dat platform verdient.’ Hoe de algoritmes precies in elkaar zitten, is geheim. De Universiteit Utrecht deed een onderzoek naar de algoritmische ervaringen van leerlingen in het voortgezet onderwijs in Nederland ‘om bij te dragen aan het opbouwen van dergelijke kennis, door gebruik te maken van de concepten van algoritmische verbeelding, macht en kritische evaluatie. De resultaten laten zien dat leerlingen situationele, praktische ervaringskennis opbouwen over algoritmische werkingen die nauw aansluit bij de kenmerken van de interface van de sociale mediaplatforms die ze gebruiken. Implicaties voor mediageletterheid zijn onder andere dat leerlingen zich op systeemniveau bewust worden van de werking van algoritmes en er een eigen inbreng in hebben, inclusief inzicht in de maatschappelijke gevolgen ervan.’
ChatGPT
Chat General Pretrained Transfomer (GPT) is een erg handig programma, ontwikkelt door Open AI. Google kwam daarna met BART en Gemini, dat is ook een taalassistent. Er zijn heel veel programma’s die redelijk hetzelfde doen en erg behulpzaam kunnen zijn. Reedijk gebruikt ChatGPT als inspiratiebron bij het maken van opdrachten voor haar leerlingen en het ontwerpen van lessen. ‘In ChatGPT kun je een opdracht ingeven, een ‘prompt’. Hoe uitgebreider je prompt is, hoe beter het resultaat. De plaatjes bij dit artikel zijn met AI gemaakt, met het programma Dall-E. Die naam komt uit een samenstelling van de surrealistische kunstenaar Salvador Dali met WALL-E, een robot uit de gelijknamige animatiefilm. Maar komt daar betrouwbare informatie uit? Het Trustworthy AI lab aan de Open Universiteit, een community van wetenschappers uit allerlei disciplines, werkt als broedplaats voor het betrouwbaar maken van AI en daar werkt onder andere Nadine Roijakkers, hoogleraar open innovaties aan de Open Universiteit: ‘Ook al denk je dat je geen bias hebt, die heb je toch. Daarom is het belangrijk dat je transparant bent, ook in je algoritme. Gemeente Rotterdam bracht onlangs een algoritme, wat ze gebruikten voor fraudedetectie, naar buiten met de vraag of iemand daar iets verkeerds in kon ontdekken, dat bleek heel veel te zijn. Ik denk dat dat de manier is om betrouwbaarheid van AI te vergroten. Voedt de AI met zoveel mogelijk data, wat voor dat ligt vooral aan de toepassing. Als je het bijvoorbeeld voor HR gebuikt, wat steeds meer gebeurt, dan is diversiteit heel belangrijk. Verschillende achtergronden, vaardigheden, genders en culturele achtergronden. Zorg dat die dataset zo afwisselend mogelijk is en niet alleen maar gevoed met de cv’s van witte, 50+ mannen, want dan krijg je dat er ook uit.’
Audits
Als je een algoritme hebt gemaakt, is het daarmee niet klaar. ‘Blijf het algoritme onderzoeken en testen’, gaat Roijakkers verder. ‘Laat anderen je algoritme testen, er zijn bedrijven die dat doen. Dat heeft alleen nut als die auditteams ook heel divers zijn, dan krijg je het beste resultaat. Ik zie heel iets anders bij een plaatje dan wanneer een techneut of een jurist ernaar kijkt. Dat moet je bij elkaar brengen. AI is een prachtig iets, mits je het goed gebruikt. Bijvoorbeeld doordat mensen die normaal gesproken niet volledig mee kunnen doen aan het arbeidsproces vanwege een beperking, nu dankzij de beschikbare apps gewoon meedoen aan een vergadering ook al hebben ze een gehoor- of zichtbeperking. Het is belangrijk om de positieve kanten goed te laten zien. Toen de rekenmachine op de markt kwam, dachten wiskundedocenten dat hun vak verloren ging, maar het zorgde juist voor een verdieping. Door AI routinezaken te laten doen, bijvoorbeeld in de zorg, kan de verpleging meer aandacht geven aan de patiënt.’
Negatieve kanten
Breng de negatieve kanten van AI in kaart. ‘AI kan veel dingen overnemen, zoals in mijn vak het onderwijs en dat kan ervoor zorgen dat ik meer toekom aan het persoonlijk begeleiden van studenten, waar ik tot nu toe minder tijd voor had. In sommige gevallen kun je inderdaad je baan verliezen door AI, maar daar komt ander werk voor in de plaats. Als mensheid kunnen we veel dieper in belangrijke vraagstukken duiken, zoals met de rekenmachine, doordat we minder tijd kwijt zijn aan routinematige dingen. Ik kijk er vooral naar wat het voor ons kan betekenen. Als we met verschillende lenzen naar AI en algoritmes kijken, dan helpt dat om vooroordelen uit te sluiten.’
Verdieping: Europese wetgeving
De verordening met betrekking tot een Europese aanpak van kunstmatige intelligentie en de actualisering van het gecoördineerd plan inzake AI zullen de veiligheid en de grondrechten van mensen en bedrijven garanderen, en tegelijk ook de investeringen en innovatie in de hele EU stimuleren. Daarbij is alles wat als een duidelijke bedreiging voor EU-burgers wordt beschouwd, wordt verboden: van sociale scoringtoepassingen van overheden tot spraakgestuurd speelgoed dat risicogedrag van kinderen aanmoedigt onaanvaardbaar
Alle toepassingen op het gebied van
- onderwijs en beroepsopleidingen,
- veiligheidscomponenten van producten
- arbeidsmarkt, personeelsbeheer en toegang tot zelfstandige beroepen
- essentiële particuliere en publieke diensten
- rechtshandhaving
- migratie-, asiel- en grenscontrolebeheer
- beheer van justitiële en democratische processen
moeten zorgvuldig worden beoordeeld, niet alleen vóór ze in de handel worden gebracht, maar ook tijdens de rest van hun levenscyclus.
Voor AI-systemen zoals chatbots gelden minimale transparantieverplichtingen zodat de contentgebruikers van die systemen zelf met kennis van zaken kunnen beslissen of ze de applicatie al of niet gaan of blijven gebruiken.
Je las zojuist een gratis premium artikel op TW.nl. Wil je meer van dit? Abonneer dan op TW en krijg toegang tot alle premium artikelen.