Abonneer Log in

Hoe kan AI ons dienen, en niet andersom?

  • Paola Verhaert - Onderzoeker bij IMEC-SMIT aan de VUB en senior data responsibility en privacy-adviseur bij Artsen Zonder Grenzen

Samenleving & Politiek, Jaargang 30, 2023, nr. 3 (maart), pagina 48 tot 52

De voorbije weken zag ik een samenleving die zich overvallen voelde door de plotse opkomst van ChatGPT. ChatGPT was het antwoord, maar wat was eigenlijk onze vraag?

De voorbije maanden kon iedereen, of tenminste iedereen met internettoegang, uit de eerste hand het potentieel van kunstmatige intelligentie (AI) ontdekken. ChatGPT, een op AI gebaseerde chatbot ontwikkeld door OpenAI, werd toegankelijk gemaakt voor het publiek. Wat volgde waren honderden krantenkoppen die het potentieel van ChatGPT onderstreepten en een wekenlang debat over hoe de technologie zou kunnen worden toegepast in onderwijs, op de werkvloer, in de journalistiek, enzovoort. Het debat werd gekleurd door angsten, hoopvolle ideeën, en enorm veel vragen. Met als belangrijkste vraag misschien: hoe kan AI ons dienen, en niet andersom?

TUSSEN INDIVIDUELE EMPOWERMENT EN COLLECTIEVE BEVRIJDING

Enkele weken geleden stuurde Sam Altman, de CEO van OpenAI, een tweet de wereld in: 'The level of individual empowerment coming is wonderful'.

AI-technologieën spreken tot de verbeelding. Toepassingen zoals ChatGPT worden vaak geloofd omwille van hun emancipatorisch potentieel. Voortaan kunnen klusjes die we als tijdrovend beschouwen met enkele klikken afgewerkt worden, waardoor we meer tijd hebben om ons toe te leggen op andere taken. Maar is het even gemakkelijk om de voordelen van AI voor individuen te vertalen naar maatschappelijke voordelen? Weinig dingen maken de spanning tussen individuele empowerment en collectieve bevrijding zo duidelijk als wat Altman seconden eerder had getweet: 'These tools will help us be more productive (can't wait to spend less time doing email!), healthier (AI medical advisors for people who can _'__ t afford care), smarter (students using ChatGPT to learn), and more entertained (AI memes lolol)_'.

Ik loop hier het risico om het voor de hand liggende te zeggen, maar hogere productiviteit staat niet gelijk aan een beter leven, het gebruik van technologische hulpmiddelen bevordert niet noodzakelijkerwijs het leerproces, en als mensen zich geen toegang tot de gezondheidszorg kunnen veroorloven, is dat een probleem dat zeker niet moet worden opgelost door deze groep mensen door te verwijzen naar een chatbot.

AI-technologieën kunnen zeker en vast voor doorbraken zorgen. Als iemand die deels voor een medische humanitaire organisatie werkt, kijk ik bijvoorbeeld vol bewondering naar de manier waarop het gebruik van AI in de geneeskunde wordt verkend om ziektes sneller en beter op te kunnen sporen.

Maar, en dit is een grote maar, ik werk ook al jarenlang met kwetsbare gemeenschappen die directe schade ondervinden van onverantwoorde toepassingen van 'innovatieve' oplossingen. Het ongeremd gebruik van AI vormt een risico voor het behoud van onze mensenrechten, en het aantal gedocumenteerde voorbeelden over misbruik van AI-systemen lijkt met de dag te groeien.1

Dus we moeten ons afvragen: hoe kunnen we het tij keren? Hoe kunnen we er niet alleen voor zorgen dat kwetsbare gemeenschappen geen schade wordt toegebracht, en hoe kan iedereen in de maatschappij op een gelijkwaardige manier voordeel halen uit AI-technologieën?

EEN CRISIS VAN DE VERBEELDING

Op een recente bijeenkomst van internationale digitale rechtenactivisten zouden we reflecteren over de technologische vooruitgang die we wél willen, en dat was geen gemakkelijke opdracht. Terwijl er de afgelopen jaren hard werd gewerkt om de risico's van technologie kenbaar te maken en te mitigeren, werd het gesprek over hoe technologie potentieel kan bijdragen tot maatschappelijke vooruitgang gemonopoliseerd door een handvol bedrijven.

Het gesprek over hoe technologie potentieel kan bijdragen tot maatschappelijke vooruitgang wordt gemonopoliseerd door een handvol bedrijven.

We bevinden ons in wat futuroloog Geoff Mulgan 'een crisis van de verbeelding' noemt. We kunnen ons misschien wel technologische vooruitgang voorstellen, maar geen fundamenteel andere wereld. Waarom is het zo moeilijk om ons in te beelden hoe een betere wereld eruit ziet en te bedenken hoe innovatieve technologieën hier eventueel toe kunnen bijdragen?

Eerste moeilijkheid. De parameters van het debat over de innovatie die we willen, worden bepaald door de technologiesector. Elk bedrijf wil graag AI-technologie bouwen die nuttig is. Maar wat nuttig is en wie baat heeft bij de technologie, wordt voornamelijk bepaald door de ontwikkelaars zelf. Maar aangezien we weten dat de techindustrie niet bepaald vertegenwoordigd wordt door mensen die de potentiële schade van deze technologieën begrijpen en kunnen aanpakken2, moeten we ons vragen stellen bij deze houding.

Bedrijven zijn bovendien zo gretig om een plekje op te eisen in de AI-sector dat veel van wat tegenwoordig als 'AI' verkocht wordt, niet werkt en niet kan werken. Het is, in de woorden van professor in de computerwetenschappen Arvind Narayanan, _snake oil.3 Onderzoek naar het discours omtrent AI in start-ups legde bloot dat zelfs ondernemers zich ergeren aan het frauduleus gebruik van AI als deel van marketingstrategieën, maar ook dat zij zich hier zelf schuldig aan maken.4

Tweede moeilijkheid. Ondertussen omarmen ook overheden het potentieel van AI, en vormt het in de meeste landen een centraal onderdeel van het innovatiebeleid. Een doelstelling die in het kader van economische groei naar voor komt in de meeste beleidsplannen is dat bedrijven zo breed mogelijk gebruik zouden maken van AI. Binnen het kader van hun digitale doelstellingen hoopt de Europese Commissie bijvoorbeeld dat 75% van de Europese bedrijven tegen 2030 gebruik zal maken van cloud-, AI- of big datatoepassingen.5 Dat AI-technologieën moeten worden toegepast, staat voor de Europese Commissie dus buiten kijf; de keuze over hoe dat gebeurt wordt wel grotendeels overgelaten aan de lidstaten. Ook in de nationale innovatiestrategieën speelt AI een centrale rol; zo bestaan er volgens de OESO tot op heden meer dan 800 AI-beleidsinitiatieven verdeeld over 69 landen.6

Het feit dat AI een centrale rol speelt in een innovatiestrategie hoeft geen probleem te zijn, tenminste als de risico's nuchter afgewogen worden tegen de mogelijke voordelen. Maar binnen een context waarin nieuwe technologische ontwikkelingen door de techindustrie zwaar worden gehypet door de industrie toont het onderzoek aan dat overheden retoriek gebruiken die net bijdraagt tot deze hype.7 In een recente paper over de beeldvorming van nationale AI-strategieën bij vier grootmachten vonden onderzoekers dat er gebruik werd gemaakt van steeds dezelfde vage retoriek om AI uiteindelijk te beschrijven als een 'onvermijdelijke en massaal ontwrichtende technologische ontwikkeling'.8 Al te vaak wordt de keuze om AI toe te passen politiek voorgesteld als een fait accompli, en als een kant-en-klare oplossing waar we gebruik van moeten maken ongeacht de aard van onze vraag.

Derde moeilijkheid. Gelukkig wordt er ook gewerkt aan regelgevende kaders om de impact van AI op onze rechten als consument en burger te monitoren. Op Europees niveau zal dit jaar normaal gezien de AI Act goedgekeurd worden, en in de VS kondigde de Federal Trade Commission in februari aan dat zij een Office of Technology zullen oprichten om frauduleuze AI-toepassingen te detecteren.9

De nakende goedkeuring van de AI Act zorgde ondertussen al voor een interessant debat over hoe een regelgevend kader voor AI kan of moet worden vormgegeven. De AI Act stelt voor om dat te doen door AI-toepassingen binnen drie risicocategorieën onder te verdelen.10 De AI Act past dus een risk-based approach toe, en met het oog op de mogelijke impact die gebruik of misbruik van AI kan hebben op onze fundamentele mensenrechten is dat een absoluut noodzaak.

Binnen het voorstel worden deze risico's hoofdzakelijk benaderd door te beschouwen welke risico's de toepassingen vormen voor individuen. En dat is, volgens Nathalie Smuha, een kritische tekortkoming van de huidige regulerende benadering van AI. Daarom stelt Smuha, die onderzoekster is bij de KU Leuven, dat het nodig is om binnen de regulerende benadering van AI het perspectief te verschuiven van eventuele schade die berokkend kan worden aan het individu naar het potentieel van AI om maatschappelijke schade te veroorzaken.11

WAT IS DE MAATSCHAPPELIJKE MEERWAARDE?

Ik ben het eens met Smuha's vraag naar regelgevende kaders die naast de mogelijke schade van AI-technologieën op individuen ook de maatschappelijke schade in beschouwing nemen. Maar mijn vrees is dat we als maatschappij altijd een achterstand zullen blijven behouden op het discours en het aanbod zoals het wordt voorgesteld door de techindustrie als we uitsluitend blijven kijken naar de schade die AI-technologieën veroorzaken.

Wat als we bedrijven zouden vragen om te bewijzen hoe nieuwe AI-producten een maatschappelijke meerwaarde kunnen creëren.

Dus wat als we ook de maatschappelijke bijdrage van AI kritisch zouden beoordelen? Wat als we bedrijven zouden vragen om te bewijzen hoe nieuwe AI-producten een maatschappelijke meerwaarde kunnen creëren, niet alleen vanuit economisch perspectief, maar ook vanuit een perspectief van maatschappelijke vooruitgang en welzijn? En kunnen we er op deze manier voor zorgen dat de bewijslast verschuift van de consument naar de bedrijven zelf?

Stel je voor: we zouden geen eindeloos lange nieuwscycli meer moeten doorstaan waarin gedebatteerd wordt over hoe een nieuwe chatbot het onderwijssysteem kan disrupten; we zouden studenten, leerkrachten en andere pedagogische experten namelijk al lang voor de lancering actief hebben betrokken bij de ontwikkeling van een instrument dat hen effectief helpt en dat bijdraagt tot de verbetering van het onderwijslandschap.

Geen van deze dingen zullen kunnen gebeuren zonder een vooruitziende blik die de heersende narratieven omtrent innovatie kritisch durft te ondervragen. Deze visie moet transparant gepresenteerd worden in politieke innovatiestrategieën die niet kritiekloos het discours van Big Tech kopiëren, maar die worden opgetrokken uit een visie voor een rechtvaardige samenleving, in samenspraak met burgers, middenveldorganisaties en wetenschappelijke experten. Wat we nodig hebben, zoals sterk werd beschreven door Matthew Le Bui en Safiya Umoja Noble, is dat 'de toekomst van AI en ethiek zich bezighouden met de toenemende globale sociale en economische ongelijkheid, de repercussies die zullen optreden als gevolg van de klimaatverandering, en de manieren waarop AI zal worden gebruikt bij de herverdeling van mondiale goederen en diensten - van huisvesting, tot voedsel, tot het oversteken van grenzen, enzovoort'.12

Om dit te bereiken moeten we nadenken over hoe we AI-technologieën kunnen ontwikkelen die ons kunnen dienen, en niet andersom. Hoe ziet technologie eruit die niet alleen nuttig is op het individuele niveau, of voor bepaalde bedrijven, maar technologie die wordt ontworpen om bij te dragen aan het oplossen van socio-economische problemen waar we als maatschappij mee worstelen?

Dit is een moeilijke, maar pertinente denkopgave. Het is een opgave die de deelname van iedereen vereist: bedrijven moeten worden aangemaand om proactief verantwoording af te leggen over de impact van hun producten op individuen én op de maatschappij. Overheden moeten hun innovatiebeleid uitbreiden en heroriënteren naar de ondersteuning en productie van technologieën die kunnen helpen om de grote maatschappelijke uitdagingen, zoals bijvoorbeeld de klimaatcrisis aan te pakken. Bovenal moeten we de gemeenschappen die het meest te lijden hebben onder de onverantwoorde toepassing van technologie de ruimte geven om na te denken over hoe een rechtvaardigere toekomst eruit kan zien.

Verbeelding is tenslotte ook maar, om Gloria Steinem te parafraseren, een vorm van plannen.

EINDNOTEN

  1. Het is binnen dit essay niet mogelijk om een lang overzicht te geven van deze voorbeelden, maar ik verwijs graag door naar journalistiek platform The Markup voor een verzameling artikels over het thema: https://themarkup.org/series/machine-learning.
  2. Zie het verhaal over Timnit Gebru voor een markant voorbeeld: Simonite, T. (2021). What Really Happened When Google Outsed Timnit Gebru. WIRED.
  3. Narayanan, A. (2019). How to recognize AI snake oil. Arthur Miller Lecture on Science and Ethics.
  4. Winecoff, A. A., & Watkins, E. A. (2022). Artificial Concepts of Artificial Intelligence: Institutional Compliance and Resistance in AI Startups. arXiv preprint arXiv:2203.01157.
  5. European Commission. (n.d.). Europe's Digital Decade: digital targets for 2030. https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/europes-digital-decade-digital-targets-2030_en.
  6. Zie: https://oecd.ai/en/dashboards/overview. Hoewel België niet de focus is van dit essay geef ik mee dat er over de regio's heen verschillende AI-strategieën bestaan. In oktober 2022 werd ook een nationaal plan gepubliceerd dat deze strategieën samenbrengt: https://michel.belgium.be/nl/een-nationaal-convergentieplan-voor-de-ontwikkeling-van-artifici%C3%ABle-intelligentie-ai.
  7. Bareis, J., & Katzenbach, C. (2022). Talking AI into being: The narratives and imaginaries of national AI strategies and their performative politics. Science, Technology, & Human Values, 47(5), pp. 855-881.
  8. Zelfde verwijzing.
  9. Coldewey, D. (2023). FTC's new Office of Technology will help mop up tech 'oozing with snake oil'. TechCrunch. https://techcrunch.com/2023/02/17/ftcs-new-office-of-technology-will-help-mop-up-tech-oozing-with-snake-oil/.
  10. Zie voor een goed overzicht: Edwards, L. (2022). Expert explainer: The EU AI Act proposal. Ada Lovelace Institute. https://www.adalovelaceinstitute.org/resource/eu-ai-act-explainer/.
  11. Smuha, N. A. (2021). Beyond the individual: governing AI's societal harm. Internet Policy Review, 10(3).
  12. Le Bui, M., & Noble, S. U. (2020). We're missing a moral framework of justice in artificial intelligence. The Oxford Handbook of Ethics of AI, p. 178. (Eigen vertaling.)

Samenleving & Politiek, Jaargang 30, 2023, nr. 3 (maart), pagina 48 tot 52

Abonneer je op Samenleving & Politiek

abo
 

SAMPOL ONLINE

40€/jaar

  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
MEEST GEKOZEN

SAMPOL COMPLEET

50€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
 

SAMPOL STEUN

100€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
  • Je krijgt een SamPol draagtas*
 

SAMPOL SPONSOR

500€/jaar

  • Je ontvangt het magazine in de bus
  • Je leest het magazine online
  • Je hebt toegang tot het enorme archief
  • Je krijgt een SamPol draagtas*

Het magazine verschijnt 10 keer per jaar; niet in juli en augustus.
Proefnummer? Factuur? Contacteer ons via info@sampol.be of op 09 267 35 31.
Het abonnementsgeld gaat jaarlijks automatisch van je rekening. Het abonnement kan je op elk moment opzeggen. Lees de Algemene voorwaarden.

Je betaalt liever via overschrijving?

Abonneren kan ook uit het buitenland.

*Ontdek onze SamPol draagtas.