Rainbow Cupcakes (Bron: Pexels, Georgie Devlin)

Waarom gaat AI zo vaak gepaard met discriminatie?

Lina Blijleven

op
13
6
2023
MSc. AI & Docent

In juni is het Pride-maand. Daarbij vieren we onze unieke eigenschappen, de liefde en de stappen die we hebben gezet tegen discriminatie. Maar dat betekent nog niet dat iedereen nu altijd gelijk behandeld wordt. Sterker nog: nu is er zelfs technologie om voor ons te discrimineren. Laten we daar in dit artikel even bij stil staan, om ook onze digitale wereld een stukje inclusiever te maken deze maand.

Met de nieuwste AI-algoritmes kunnen we discrimineren op een schaal als nooit tevoren. Daarmee wil ik niet zeggen dat AI slecht is. AI kan ons bijvoorbeeld helpen met het diagnosticeren en behandelen van bijvoorbeeld ziektes als diabetes. Toch gebeurt het vaak dat AI wordt gebruikt om mensen te beoordelen en daarbij ook de negatieve vooroordelen van mensen overneemt.

Een AI is zo objectief als de data waarop deze getraind is. Laat jij een AI discriminerende berichten lezen, dan zal de AI leren te discrimineren. Daar kwamen we in 2016 al achter, toen chatbot Tay gelanceerd werd en meteen gebombardeerd werd met aanstootgevende berichten. Al snel begon de chatbot zelf tweets te sturen over geweld en zelfs antisemitische uitspraken te doen. Dit klinkt misschien als een stom foutje van een klein bedrijf, of een uit de hand gelopen schoolproject, maar dit project werd gerealiseerd door Microsoft. In dezelfde periode wist Amazon een automatische screening tool te realiseren, waarmee CV’s van vrouwen automatisch werden geweigerd. De tool was gebaseerd op de beslissingen die Amazon voorheen had gemaakt bij het aannemen van personeel.

Nu is 2016 al weer even geleden (een eeuwigheid in technologiejaren), maar ook gloednieuwe technologie als ChatGPT blijkt niet volledig objectief.

ChatGPT schrijft een bevooroordeeld programma, waarin mensen uit Noord-Korea, Syrië, Iran en Sudan gemarteld mogen worden. Dit soort prompts komen tegenwoordig niet meer langs het filter. Bron: @spiantado (Twitter)

ChatGPT geeft verschillende waardes aan het menselijk brein, afhankelijk van ras. Bron: @spiantado (Twitter)

In deze afbeeldingen zien we hoe het model uitspraken doet over complexe onderwerpen als mensenrechten en de waarde van een mens, beide op basis van ras. ChatGPT maakt weliswaar gebruik van een filter om aanstootgevende content te vermijden, maar dit blijkt vaker tekort te schieten. Op dit moment zou je deze voorbeelden niet meer kunnen reproduceren, maar er is geen garantie dat andere creatief geschreven prompts leiden tot vergelijkbare resultaten.

Niet alleen is het mogelijk om het filter te omzeilen, maar ook het trainen van een dergelijk filter is een controversieel onderwerp. Dit soort filters worden al langer ingeschakeld op social media. Gebruikers van social media worden hiermee beschermd tegen schadelijke content. Om te bepalen welke content acceptabel is wordt het filter getraind op data die is gelabeld door moderators. Zij worden dus wél blootgesteld aan schadelijke content, wat kan leiden tot zeer negatieve consequenties voor de mentale gezondheid.

In het geval van Facebook bijvoorbeeld werd de moderatie (en dus het labelen van de aanstootgevende content) gedaan in Amerika.Tegenwoordig pakken Meta (Facebook), OpenAI (ChatGPT) en ByteDance (TikTok) het anders aan: zij hebben het verzamelen van data namelijk geoutsourcet naar bedrijf Sama in Kenia. Dit betekent dat de Keniaanse medewerkers waarschijnlijk schadelijke content te zien krijgen voor een uurloon van minder dan 2 dollar, terwijl dit hun kosten om te leven niet dekt. Het goede nieuws is, dat na een oordeel van de rechter in Kenia, de werknemers het recht hebben gekregen om een unie op te richten. Het slechte nieuws is dat deze unie wel in discussie moet met drie van de grootste bedrijven ter wereld. 

Ondanks mijn kritische blik op het model, probeer ik niet te zeggen dat ChatGPT inherent slecht is: het gigantische model biedt ons ook nieuwe en verbeterde mogelijkheden op het gebied van taalverwerking en informatievoorziening. Mijn studenten gebruiken de tool bijvoorbeeld om hulp te krijgen bij het schrijven van code en verslagen. Maar dat zelfs een enorm en viral project met deze problemen kampt, geeft wel aan dat we verantwoordelijk met AI om moeten gaan. Zeker nu we meer AI in de handen van de massa’s hebben.

Tips voor ethical AI

De eerste stap naar verantwoordelijk gebruik van AI (of ethical AI) is uiteraard een stukje bewustzijn en educatie. Door artikelen, boeken en andere betrouwbare bronnen te lezen kunnen we bijvoorbeeld beter begrijpen welke kwesties we wel of niet aan AI over moeten laten. Recent wist een advocaat zichzelf voor schut te zetten door verzonnen gerechtszaken te presenteren, die hij door ChatGPT had laten genereren. Een AI kan zeker een mooi kladje genereren dat we zelf uit kunnen werken, maar die menselijke controlestap kunnen we niet zomaar overslaan. Ik heb zelfs mensen om medisch advies horen vragen aan ChatGPT. Daar kan ik vrij kort over zijn: doe dat alsjeblieft niet.

Wat we wel kunnen doen is leren uit andere vakgebieden met vergelijkbare problemen. Zo zijn er bijvoorbeeld richtlijnen voor robotica en is grootschalige discriminatie in big data ook al eens bekeken vanuit het perspectief van de wiskunde (aangeraden door een student van mij en geschreven door een dame met een PhD van Harvard). Moderne AI is vaak gebaseerd op statistiek, wat betekent dat dezelfde valkuilen gelden als het aankomt op de interpretatie van resultaten. Eigenlijk is dit geen nieuw probleem, maar een oud probleem in een nieuw jasje.

Graag stel ik zelf een nieuwe regel voor: als je iets niet direct had geloofd als je het op Facebook had gelezen, zou ik het ook niet zonder factcheck van een AI aannemen. Want laten we eerlijk zijn; de mensen die hun nieuws van Facebook haalden waren toch niet meer te redden.

Maar hoe zit het dan met bedrijven? Google heeft bijvoorbeeld een lijst van principes die toegepast moeten worden bij applicaties die AI gebruiken. Uit onderzoek is gebleken dat alleen principes niet genoeg zijn, maar dat maakt ze nog geen overbodige luxe. Waar mogelijk kunnen zij inzicht bieden in hoe algoritmes werken, door bijvoorbeeld code open-source te maken of tenminste de relevante principes toe te lichten. 

Het invoeren van regulaties klinkt misschien niet spannend of leuk, maar zorgvuldige en onafhankelijke audits kunnen onverwacht en ongewenst gedrag bij AI helpen voorkomen. Regulatie komt op dit moment vooral vanuit de Europese Unie en de principes die opgenomen zijn in de Europese AI Act (2021) beginnen zich over de wereld te verspreiden. Wetten zijn helaas gecompliceerd, wat betekent dat verder onderzoek en het aanbrengen van nuance in deze wetten van groot belang is.

Daarnaast is er nog de kwestie in Kenia. Het probleem van contentmoderatie was al ingewikkeld toen het over mentale gezondheid ging en is nog controversiëler nu het probleem verplaatst is naar derdewereldlanden. Politieke en subjectieve onderwerpen mijd ik liever in deze artikelen, maar in dit geval voelt het meer dan eerlijk om te benoemen dat deze mensen een leefbaar salaris en de juiste ondersteuning voor de zware mentale last verdienen.

Het is onvermijdelijk dat de wereld zal veranderen door AI. Maar ook wij hebben invloed: met onze data, ons gedrag (online) en onze stem in de Europese wetgeving. Ga dus vooral op onderzoek uit en kom tot je eigen conclusies. In deze playlist op YouTube heb ik een paar toegankelijke filmpjes over AI verzameld en door dit hele artikel staan linkjes om op onderzoek uit te gaan. Mijn collega’s en ik zijn altijd te porren voor een goede discussie (of programmeervraag), dus vergeet ook niet om lid te worden van onze Discord.

Wees lief voor elkaar.