
„Hoe verschillende spiergroepen in ons gezicht bewegen is bij iedereen anders, en daaruit valt iets af te leiden over je persoonlijkheid”. Dat claimt Ghita Ramdhiansing onlangs in NRC. Zij is van het bedrijf Clearwater dat op basis hiervan recruitment-software heeft ontwikkeld. Hoe die software – of liever gezegd het algoritme – dat precies doet is bedrijfsgeheim. Zoals de meeste algoritmen.
Clearwater-software
Het artikel beschrijft in grote lijnen hoe de Clearwater-software te werk gaat. Een video-opname van de sollicitant wordt geanalyseerd op basis van zogeheten micro-expressies, veroorzaakt door die ‘verschillende spiergroepen’. Volgens Ramdhiansing is de software niet om de tuin te leiden, de ware micro-expressies – en daarmee de persoonlijkheid – worden er onherroepelijk uit gehaald.
Wat Clearwater nog wel kwijt wil is dat de analyse gebaseerd is op theorieën van de Amerikaanse psycholoog Paul Ekman. Zo krijgt het een wetenschappelijk tintje, maar hoe het bedrijf die theorieën interpreteert en in het algoritme heeft geïmplementeerd komen we niet te weten. Het algoritme zou ook niet om de tuin te leiden zijn, micro-expressies laten zich niet verbergen. What you see is what you get.
Persoonlijkheidsprofiel
Clearwater is niet de enige. NRC voert in het sollicitatieverhaal nog een bedrijf op dat het verhaal van een sollicitant opneemt en omzet naar tekst. Dan volgt een analyse waarbij wordt gekeken naar redenering, woordgebruik, interpunctie en intonatie. Resultaat: een persoonlijkheidsprofiel.
Hoe valide is de wetenschap hierachter? Moeten we hier het wat cynische standpunt innemen dat als dit soort software goede kandidaten oplevert, het blijkbaar werkt? Of hebben we hier te maken met een eigentijdse versie van Lombroso?
In de Volkskrant (19 juni 2018) stond een interview met wiskundige Cathy O’Neill, auteur van het boek Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy. Zij trekt van leer tegen de ondoorzichtigheid van algoritmen en de ‘math destruction’ die dat kan aanrichten. Een groot risico is dat het algoritme bepaalt, niet de mens die de verantwoordelijkheid voor de keuze zal afschuiven.
Algoritmen
Verwachten we niet teveel van een algoritme? Algoritmen maken fouten en lijken wat dat betreft als twee druppels op de mens. De bedoeling is natuurlijk wel dat ze minder fouten maken. Nu er veel aandacht is voor de kwaliteit van algoritmen en het besef dat we daarvoor de werking moeten kennen, zal het op termijn waarschijnlijk wel goed komen met de ergste fouten.
Maar de profileringsvoorbeelden maken een heel ander probleem duidelijk, een probleem waar ook O’Neill op wijst: het zijn de grote kapitaalkrachtige bedrijven die bepalen of individuen – hier de sollicitanten – kansen krijgen of niet. Als het algoritme uitkomt op ‘verkeerde’ micro-expressies van een kandidaat of uit het gesproken woord een ‘onbruikbaar’ persoonlijkheidsprofiel destilleert, is de sollicitant kansloos.
Ongelijkheid
Maar wat kan de sollicitant? Daarvoor geldt helemaal niet ‘what you see is what you get’. Want waar is het algoritme dat helpt corporate ‘micro-expressies’, verhalen en claims op juiste waarde te schatten? Dat algoritme gaat er niet komen. Veel te duur, wetenschappelijke onderbouwing ontbreekt, wie levert de (big) data, enzovoorts. Het grote gevaar is juist deze ongelijkheid. Precies wat O’Neill bedoelt met ‘Increases Inequality and Threatens Democracy’. We zijn gewaarschuwd!
Hans van Raaij, senior consultant bij MCS PR en Finitiative PR