Hoe AI stigma’s van moslima’s versterkt en verspreidt

Je kunt tegenwoordig niet meer om AI heen. Of het nu om chatGPT gaat of om de app Lensa AI, wie zich in het digitale veld begeeft komt er vroeg of laat mee in aanraking. De balans opmaken op de vraag ‘is AI goed of slecht?’ is lastig, zeker omdat het nog niet zo wijdverbreid gebruikt wordt. Maar als we de experts mogen geloven, gaat dat in de toekomst anders zijn. De hoogste tijd voor de prijswinnende fotograaf Cigdem Yuksel om te onderzoeken wat het gebruik van AI betekent voor de beeldvorming van moslima’s. Lilith Magazine sprak met Yuksel en met Laurens Vreekamp, schrijver van the Art of AI.

Beeld door AI van Cigdem Yuksel

Cigdem Yuksel onderzoekt sinds 2020 de representatie van moslima’s in de media. Haar conclusie eerder: media beelden moslima’s stereotype af, fotograferen hen het liefst van een afstand met een telelens, alsof de beeldmakers op safari zijn. Het hieruit ontstane beeld van moslima’s is eenzijdig en negatief. Nu kunstmatige intelligentie haar intrede doet in onze samenleving en daarmee ook in de media, besloot Yuksel de beeldvorming van moslima’s door AI te onderzoeken. 

Noodzaak rondom negatieve beeldvorming

Cigdem Yuksel voerde in DALL.E, een AI-systeem, in: “Realistische foto van een moslima in Amsterdam.” De output was dezelfde stereotiepe foto die ze gewend was uit haar eerdere onderzoeken naar representatie van moslima’s in de media, de “safari foto’s” noemt ze het. Foto’s van gesluierde moslima’s buitenshuis, lopend of zittend, vaak met boodschappentassen in de hand. Toen ze de resultaten zag voelde ze de sterke noodzaak om dit, in het verlengde van haar eerder onderzoek, bespreekbaar te maken: “Als we het hebben over beeldvorming nu, dan moeten we het ook hebben over de toekomst want die zijn we nu al aan het maken”, zegt ze. Yuksel licht toe: "Het zijn tools die we in de toekomst allemaal gaan gebruiken en je wilt niet dat we weer een stereotype gaan versterken, wat ook weer onze beeldvorming gaat kleuren. We weten nu dat het problematisch is.” Media schotelen ons al jarenlang eenzijdige en negatieve beelden van moslima’s voor. Dit is bepalend voor onze blik, het sijpelt door in ons perspectief. Doordat de beelden die door AI gecreëerd zijn, dat zijn op basis van al het eerdere beeldmateriaal, verandert er niets aan de beeldvorming. Deze technologie gaat geheid veelvuldig in onze toekomst gebruikt worden en zou daardoor de huidige beeldvorming en dus manier waarop we naar moslima’s kijken in stand houden.

“Wat die machines laten zien is een spiegel van wat we de afgelopen tientallen jaren aan beelden hebben gemaakt.” - Cigdem Yuksel

Digitale beeldbank als basis voor AI

Beeld door AI van Cigdem Yuksel

Sinds het bestaan van het internet hebben we wereldwijd miljarden beelden, met daarbij behorende omschrijvingen, geüpload. Dankzij deze menselijke ijver kunnen AI-systemen al jaren beelden herkennen; De software was “gevoed” met al deze foto’s in combinatie met de omschrijvingen. Rond 2015 gingen techbedrijven de vraag omdraaien. “Eerst zetten we beelden online met een beschrijvende tekst. Die zijn door die nieuwe technologie opgezogen als een soort stofzuiger,” legt Laurens Vreekamp, auteur van het boek the Art of AI, uit. Het verzoek aan de nieuwe technologie: “Als je deze tekst krijgt, kun je daar dan een beeld bij maken?” Het antwoord is ja. 

Vreekamp kaart ook meteen het probleem aan dat Yuksel ervaart; de voeding van de AI-systemen is wat de mens op het internet gezet heeft, inclusief beschrijving, de beeldbanken die we tot nu toe digitaal hebben opgebouwd. Het overheersende perspectief daarin is “toch witte heteroseksuele hoogopgeleide mannen uit de westerse wereld, uit Europa, maar vooral uit Noord-Amerika". Zij zitten het langst op het internet, dus zij hebben het grootste aandeel in het geüploade materiaal,” aldus Vreekamp.

Gebrek aan representatie sijpelt door

Terwijl Cigdem Yuksel en collega’s bezig zijn met het aankaarten van eenzijdige en stereotyperende representatie van moslima’s in de media, vinden deze technologische ontwikkelingen plaats. En precies daar zit de noodzaak: “Alle foto’s die zijn gemaakt in het verleden en die we nu maken, worden gebruikt om AI-algoritmes te voeden, die weer onze toekomst gaan bepalen. Ze gaan bepalen hoe wij als beeldmakers, als journalisten en mediamakers gaan werken. Het vormt de basis van onze toekomst.  En aan het begin is die dus eigenlijk al problematisch en bevat deze vooroordelen”, zegt Yuksel. “Wat die machines laten zien is een spiegel van wat we de afgelopen tientallen jaren aan beelden hebben gemaakt.” Vreekamp bevestigt dan ook stellig dat de resultaten van AI-systemen niets zeggen over de systemen zelf, en alles over de mensen die in het hele proces betrokken zijn. Wanneer je het systeem alleen maar input levert met witte mensen en vervolgens aan het systeem vraagt een beeld te genereren met een groep personen, dan levert het systeem logischerwijs een beeld met alleen maar witte mensen – iets anders kent het niet.

Wanneer je machine learning software vraagt een beeld van een ouder koppel dat hand-in-hand op een bankje zit te maken, krijg je alleen maar witte koppels. Pas wanneer je het woord ‘arm’ toevoegt aan je zoekvraag, zullen er koppels van kleur verschijnen.

 Zowel Yuksel als Vreekamp halen hetzelfde voorbeeld aan waarin het schrijnende eenzijdige beeld dat AI genereert aan het licht komt: Wanneer je machine learning software vraagt een beeld van een ouder koppel dat hand-in-hand op een bankje zit te maken, krijg je alleen maar witte koppels. Pas wanneer je het woord ‘arm’ toevoegt aan je zoekvraag, zullen er koppels van kleur verschijnen. Vreekamp verklaart: “Dat komt omdat er op het internet miljoenen foto’s zijn van oudere stellen die wit zijn waar waarschijnlijk niet het woord arm bij staat. En dat er dus heel veel foto’s van stellen van kleur zijn waarbij wel het woord arm in de omschrijving staat. Dat komt het meeste voor in de bak met voorbeelden. Dat is hoe het werkt.”

Wie is verantwoordelijk?

Beeld door AI van Cigdem Yuksel

Volgens Cigdem Yuksel kan  AI alleen relevant zijn als we er met zijn allen voor aan de slag gaan. Laurens Vreekamp deelt deze mening: “Iedereen in de keten heeft verantwoordelijkheid,”zegt hij. Van gebruiker tot aan beeldredacteur en big techbedrijf. Al is het daarmee niet klaar. Vreekamp gaat nog een stap verder en vindt dat ook de overheid een rol moet hebben in het voorkomen van het ontstaan van deze stereotiepe beelden die discriminatie in de hand kunnen werken. “De regulering is al onderweg, en het is goed dat die er komt,” zegt hij. “Er zijn gewoon bepaalde dingen die niet kunnen. Je mag van de wet niet discrimineren, dus die systemen mogen daar ook geen voorkeur in uitspreken.” Hierdoor geef je de burger ook zeggenschap om een vooringenomen AI-systeem ergens aan te geven. Die gedeelde verantwoordelijkheid maakt het ook heel lastig, weet Vreekamp: “Je kunt wel tegen mensen zeggen; ‘Je moet opletten want deze kleding is niet eerlijk geproduceerd, dit eten kan niet zo goedkoop zijn, deze vlucht is eigenlijk niet goed,’ maar je hebt toch een eigen verantwoordelijkheid. Al deze dingen weten we en we blijven ze toch doen. Daar komt dan ook nog politieke voorkeur bij kijken: wat vind je belangrijk in de maatschappij?”

Ondanks dat het begint en eindigt met de mensen, kan je de software meer verantwoordelijkheid geven. AI kan op een bepaalde manier geprogrammeerd worden dat het de stigmatiserende beeldvorming tegenwerkt. LinkedIn doet dit bijvoorbeeld actief. Nadat het platform geconfronteerd was met de vooringenomenheid van het algoritme – het systeem verwees meer mannen dan vrouwen naar vacatures – besloot LinkedIn het algoritme te veranderen. Nu wordt bij vacatures een groep mensen voorgesteld met een 50/50 man-vrouwverdeling.  

Hoe kan het beter?

Als AI-deskundige heeft Vreekamp drie ideeën over het verbeteren van de huidige situatie. Allereerst moeten we het bestaande bestand van beelden op het internet aanvullen met nieuwe, meer diverse beelden. Dit is waarschijnlijk ambitieuzer dan dat het efficiënt is,omdat we het moeten opnemen tegen alle data van het internet. Een tweede oplossing is het beter selecteren van beelden en hier bewuster mee omgaan. Yuksel en haar collega’s gaan bijvoorbeeld langs op redacties van diverse media om workshops te geven: “Om mee te helpen met de bewustwording en om tools en oplossingen te bieden, een handleiding eigenlijk van hoe redacteuren dat zouden kunnen doen.” Als laatste haalt Vreekamp aan dat bedrijven zelf meer divers moeten worden. Door het betrekken van meerdere perspectieven valt het sneller op wanneer er stigmatiserende foto’s gekozen worden, op deze manier is er meer oog voor diversiteit.  

Eerder schreef Lilith: “Waarom de app Lensa AI niet zo onschuldig is als die lijkt” 

Kijk hier het evenement ‘Future image making’ in Pakhuis de Zwijger terug.

Lees het onderzoek van Cigdem Yuksel en Ewoud Butter hier.
Bekijk hier de Lilith-
talk met Cigdem Yuksel, Tayfun Balcik en Massih Hutak over beeldvorming van moslims in de media.