Home Ondernemen & Business Geautomatiseerde vooroordelen

Geautomatiseerde vooroordelen

3
spyware

Big data en de bijbehorende analytics rukken steeds verder op. De uitkomsten van die analytics bepalen gaandeweg steeds meer. Van de samenhang tussen customer journey en aankoopbereidheid tot de gebieden waar de politie vaker moet patrouilleren. Ze stellen de hoogte van verzekeringspremies vast en kiezen de beste sollicitant uit een stapel cv’s. Nu we de impact van deze analytics op ons leven beginnen te voelen, rijzen er vragen over de onderliggende algoritmen. We moeten er niet blindelings op vertrouwen!

Voordelen

Al jaren worden grote voordelen geschetst van big data. Bedrijven zitten inmiddels op een gigantische databerg in de hoop die voordelen te behalen als zij die berg doorzoeken op verbanden. Dat doorzoeken wordt gedaan met algoritmen, ontwikkeld door data scientists.

Een leuk voorbeeld is het Nederlandse bedrijf Seedlink Tech dat met behulp van kunstmatige intelligentie de beste sollicitant selecteert. Het idee is dat reguliere sollicitatiegesprekken niet altijd de beste kandidaten opleveren. Volgens co-founder Rina Joosten-Rabou komt dat doordat de mens altijd bepaalde vooroordelen heeft en dat de computer die niet heeft.

Vooroordelen

En hier wringt nu de schoen. De computer zelf zal inderdaad geen vooroordelen hebben. Maar die computer wordt gestuurd door een AI-algoritme. Wie heeft dat algoritme opgesteld en op grond waarvan? Omdat die algoritmen door mensen zijn ontwikkeld zullen er fouten in sluipen, zoals rekenfouten, schijnverbanden en (onbewuste) vooroordelen. Welke fouten dat zijn weten we niet, want inzicht in het algoritme krijgen we niet. Bedrijfsgeheim! En dat terwijl we er blindelings op vertrouwen. Inderdaad, het idee dat de computer geen fouten maakt.

Dat blinde vertrouwen in technologie en wat de gevolgen daarvan kunnen zijn kennen we uit andere sectoren. Als iets op de ‘automatische piloot’ gaat heeft dat geen positieve betekenis. En inderdaad, piloten die in een cockpit zitten waar alles is geautomatiseerd zijn minder alert. De automatisering heeft weliswaar alles veiliger gemaakt, maar niet onfeilbaar. Als er dan toch iets misgaat hebben piloten sterk de neiging op hun systemen te vertrouwen, aldus de Onderzoeksraad enkele jaren geleden. Het gevolg is dat hun beoordelingsvermogen wordt aangetast, terwijl daar juist dan een beroep op wordt gedaan. In de film Sully is te zien hoe belangrijk dat vermogen is om een vliegtuig veilig aan de grond te krijgen (in dit geval de Hudson River).

Ongelukken

Blindelings vertrouwen op automatisering leidt tot ongelukken. We moeten bedacht zijn op algoritmen die fouten maken. Bijvoorbeeld, doordat er toch vooroordelen in zijn geslopen. We moeten als mens absoluut betrokken blijven bij de interpretatie van de resultaten. Dit is ook de reden dat bij Talos, onze inlichtingendienst die wereldwijd cyberdreigingen detecteert, onze mensen uiteindelijk vaststellen waar de gevaren vandaan komen en van wie. Met behulp van technologie kan weliswaar alles bekeken worden, maar of iets een echte dreiging is ziet alleen de mens. Het is een combinatie van ervaring en alertheid die ons behoedt voor gevaar. Óók als het om algoritmen gaat.

Michel Schaalje, Technisch Manager, Cisco

LAAT EEN REACTIE ACHTER

Please enter your comment!
Please enter your name here