Home Innovatie & Strategie Oordelen over vooroordelen in AI

Oordelen over vooroordelen in AI

118

Ik had van het weekend voor het eerst de openhaard weer aan. Knetterend haardvuur vermengde zich met de geur van rode wijn. Op de achtergrond hoorde ik de muziek van George Michael “Listen without Prejudice!” Typisch iets menselijks om bevooroordeeld ergens mee bezig te zijn dacht ik nog. Mijn gedachten dwaalden gelijk af naar de uitdaging waar wij mensen voor staan. Hoe zorgen wij ervoor dat er betrouwbare AI systemen kunnen worden ontwikkelt. En kunnen verklaren hoe AI-systemen tot bepaalde keuzes zijn gekomen? Op welke wijze maken wij de keuzes transparant en kunnen we de resultaten vertrouwen en onderbouwen?

Blackbox

Veel mensen ervaren AI als een blackbox. Voor de meeste mensen is het onduidelijk wat er gebeurd binnen een AI-systeem. Normaliter zou een Data Scientist een eind komen maar helaas hebben wij als gewone stervelingen niet allemaal deze kennis voorhanden. Hoe komt een zelflerend systeem aan zijn resultaten? Op basis van welke databronnen, modellen, criteria en algoritmen? Kunnen de resultaten zonder tussenkomst van mensen worden gebruikt voor wettelijke compliance (GDPR) of andere beslissingen in een goedkeuring proces? Hoe betrouwbaar, volledig en accuraat is het AI-systeem? Zijn de systemen zonder vooroordelen getraind – gebruikmakend van verschillende machine-learning technieken zoals Supervised, Un-Supervised en/of Deep-Learning technologie?

Vooroordelen

Waar komen deze vooroordelen vandaan? Er zijn ongeveer 180 verschillende menselijke vooroordelen geïdentificeerd. De brongegevens waarvan AI-algoritmen afhankelijk zijn, zijn vaak de oorzaak van het probleem. Met behulp van algoritmen voor het leren van machines zijn ze opgeleid met behulp van historische gegevens en doorgaans zijn gegevens gemaakt van historische menselijke beslissingen die op dezelfde manier tot stand zijn gekomen. Het kan ook ontstaan doordat de enorme hoeveelheden data-algoritmen die worden opgeleid, niet altijd voldoende divers zijn.

Soms hebben de menselijke beslissingen sporen van een vooroordeel of dat impliciet of expliciet is om verschillende redenen. Dus als het machine-learning model is getraind op basis van deze bevooroordeelde getrainde datasets, zal het die vooroordelen erven en repliceren. Met alle gevolgen van dien.

Detecteren en verhelpen

We zijn gelukkig in staat om vooroordelen te detecteren in Runtime. We noemen dit “Trust and Transparency” services, zie: Trust and Transparency for AI on the Cloud

Het verklaard hoe het AI systeem tot bepaalde resultaten gekomen is, en op basis van welke factoren. Het detecteert vooroordelen in de datamodellen wanneer beslissingen worden genomen en detecteert oneerlijke uitkomsten. Daarnaast geeft het ook aan welke databronnen additioneel gebruikt moet worden om het trainingsmodel opnieuw te trainen om de vooroordelen eruit te krijgen.

Het kan gebruikt worden voor verschillende Machine Learning Frameworks zoals: Tensorflow, SparkML, AWS Sagemaker, AzureML en IBM Watson. Een goede stap naar betrouwbare AI systemen die gebruikt kunnen worden om ons mensen te ondersteunen bij het nemen van complexe beslissingen. Hierdoor ben je in staat om Ethische principes te vertalen naar praktische oplossingen.

Nationale AI-agenda

Bovenstaande zou een zeer belangrijk onderdeel moeten worden in de nog op te zetten Nationale AI agenda. In deze agenda moeten alle aspecten rondom kunstmatige intelligentie aan de orde komen, zoals onderzoek, onderwijs, publiek-private samenwerking, nationale educatie, regelgeving en ethiek. We moeten zorgen dat we als B.V. Nederland aan de top mee kunnen blijven draaien op zowel Europees als Wereldwijd niveau. De eerste stappen worden hierin gezet.

Gerard E.A. Smit, CTO Benelux, IBM Distinguished Engineer

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in