Racistische robots

AI inzetten tegen racistische robots

Onze studenten en onderzoekers denken anders. Doen anders. De universiteit zo al bekeken?

Artificiële Intelligentie biedt oneindig veel mogelijkheden. 

Maar het kan ook heel gevaarlijk zijn, als er discriminerende patronen in verschijnen. Dat proberen onderzoekers van Universiteit Antwerpen tegen te gaan met Explainable AI.

Van Siri tot Tesla

Artificiële intelligentie. Je hebt er vast al van gehoord: het vermogen van een computerprogramma of een machine om te denken en te leren. Het tegenovergestelde is natuurlijke intelligentie in dieren en mensen.

AI is ook een vakgebied dat probeert om computers zelflerend te maken. Die machines werken dan op zichzelf, zonder besturing van een mens. Denk bijvoorbeeld aan de spraakassistent in je gsm of aan zelfrijdende auto’s.

Voorspellingsmodellen, een vorm van AI

Ook bij de Universiteit Antwerpen wordt AI volop bestudeerd. Onze onderzoekers focussen vooral op het begrijpelijk en transparant maken van voorspellende modellen. Zo’n voorspellingsmodel wordt automatisch gebouwd met grote hoeveelheden data. Ze zijn een vorm van Artificiële Intelligentie omdat ze uiteindelijk gebruikt kunnen worden als vervanging van menselijke intelligentie.

Voorspellingsmodellen kunnen ingezet worden in allerlei velden …

  • Geneeskunde: een model dat dokters helpt om kanker sneller op te sporen.
  • Marketing: een model dat voorspelt of de kans groot is dat iemand een product zal willen kopen.
  • Logistiek: een model dat pakjesbezorging efficiënter maakt.
  • Financieel: een model dat voorspelt hoeveel geld iemand mag lenen.​

Hoe AI kan discrimineren

Maar voorspellingsmodellen kunnen onethisch en zelfs discriminerend zijn. Niet omdat ze bewust zo gemaakt werden door hun ontwerpers, maar omdat die stereotypes en denkfouten al in de data zitten. Want data komt van mensen, en mensen discrimineren vaak zonder het zelf te beseffen.

Zo was er enkele jaren geleden een relletje rond de Apple Card. Achter die kredietkaart zit een algoritme dat beslist hoeveel geld iemand mag uitgeven. En toen er meldingen kwamen dat het algoritme vrouwen minder krediet zou geven, kon Apple dat niet bevestigen of ontkennen. Het systeem was namelijk zelflerend, en Apple wist niet wat hun algoritme precies geleerd had.

De oplossing: Explainable AI

Het is dus belangrijk dat je weet hoe en waarom AI iets beslist. Dat is de expertise van de onderzoekers van UAntwerpen. Ze ontwikkelen bijvoorbeeld methodes om voorspellingsmodellen uit te leggen. Vaak kan je dat niet afleiden uit het model zelf, door de grote hoeveelheid aan data en de complexiteit van het model.

Hoe onze AI-specialisten die methodes ontwikkelen? Met nog meer AI! Explainable AI verklaart de patronen van complexe modellen. In het voorbeeld van Apple Card zou Explainable AI dus aantonen dat de voorspellende AI het gender van klanten mee in acht neemt … of net niet. Wanneer Explainable AI eventuele discriminatie aan het licht heeft gebracht, kunnen specialisten ingrijpen om dat patroon uit het voorspellingsmodel te verwijderen.

Als we robots met AI gebruiken, is het belangrijk dat die AI onze waardes reflecteert.

Gedaan met racistische robots

Heb je ooit al een foto geüpload op Facebook? Dan zag je waarschijnlijk dat Facebook kadertjes rond de gezichten van de mensen zette, met de suggestie om ze te taggen in je foto. Dat is gezichtsherkenningssoftware, een ander voorbeeld van AI. Ontwikkelaars van dergelijke software gebruiken datasets die voorbeelden van gezichten bevatten. Het probleem: vaak bevatten zo’n datasets disproportioneel veel foto’s van witte mensen. Zo krijg je een model dat enkel rekening houdt met een klein deel van de samenleving. 

Of iemand van een bepaald ras makkelijk of moeilijk getagd wordt op sociale media, dat is misschien niet zo belangrijk. Maar stel je eens voor dat de politie gebruik zou maken van discriminerende gezichtsherkenningssoftware … Dat maakt Explainable AI dus zo belangrijk: door meer transparantie worden ongewenste patronen als discriminatie opgespoord en verwijderd. Het maakt AI beter en onze samenleving eerlijker.

Kan je een robot aanklagen?

Robots hebben zelf geen rechtspersoonlijkheid en kunnen dus niet worden aangeklaagd mochten ze bijvoorbeeld discriminerend zijn. De eigenaar of gebruiker van een robot kan daarentegen wel aansprakelijk worden gesteld. 

En wat met het verzamelen en beheren van gegevens? Daarvoor is toestemming vereist. Hoe groter de databank, hoe efficiënter AI-systemen beslissingen kunnen nemen en hoe kleiner de kans dat minderheden onzichtbaar blijven. Zo vermindert de kans op discriminatie. Heb je het zo al eens bekeken? ​

Meer weten over deze studie?
Duik zelf in ons academisch onderzoek

Leer zelf de dingen anders bekijken

Interesse in elektronica-ICT, informatica, marketing of zelfs ethiek of rechten? Zoek een opleiding die bij je past

Werken algoritmes discriminatie en racisme in de hand?

AI is een vakgebied dat probeert computers zelflerend te maken. Die machines werken dan op zichzelf zonder besturing van een mens. Maar het kan ook gevaarlijk zijn als er discriminerende patronen in verschijnen.