Home Innovatie & Strategie Een sterke ethische omkadering is nodig om de betrouwbaarheid van AI te...

Een sterke ethische omkadering is nodig om de betrouwbaarheid van AI te verhogen

Workday -
14
dainamics

De opkomst van generatieve AI en in het bijzonder OpenAI en ChatGPT verhogen de interesse en bereidwilligheid van organisaties om met artificiële intelligentie (AI) en machine learning (ML) aan de slag te gaan. Organisaties zien de verschillende voordelen van AI en ML in, zoals de verhoogde flexibiliteit en productiviteit voor werknemers, maar er zijn ook zorgen. Om met vertrouwen op de kar te springen van AI, moeten organisaties betrouwbare AI en een sterk ethisch kompas ontwikkelen.

De kracht van AI kan belangrijke verbeteringen opleveren op vele vlakken. Denk bijvoorbeeld aan navigatiesystemen, streamingdiensten of webshops die dankzij AI een betere, gepersonaliseerde ervaring bieden. Dat betekent in bredere zin dat AI exponentiële voordelen oplevert voor bedrijven, maar daarbij is het wel cruciaal dat deze spelers een strikt beleid en strenge voorzorgsmaatregelen hanteren om de risico’s van onvoorziene gevolgen te beheersen. Een voorbeeld is een programma dat specifiek ingaat op de manieren waarop ML- en AI-technologieën ontwikkeld en geleverd worden.

Om verantwoorde en betrouwbare AI te realiseren moeten bedrijven proberen de volgende doelen te bereiken:

  1. Inzetten op menselijk potentieel

De ontwikkeling van technologie moet als doel hebben het menselijk potentieel te versterken: AI stelt mensen in staat om slimmer en efficiënter te werken en kan zelfs de aard van het werk veranderen. Maar mensen moeten centraal blijven staan bij alle bedrijfsactiviteiten en fundamentele mensenrechten moeten altijd worden gerespecteerd. De ontwikkeling van AI moet klanten en hun werknemers helpen kansen te benutten en zinvol werk te leveren, met als doel om fouten en vervelende taken te verminderen en tegelijkertijd de productiviteit en besluitvorming van gebruikers te verbeteren. Daarbij zouden bedrijven een ‘human-in-the-loop’-benadering moeten gebruiken om eindgebruikers controle te geven over uiteindelijke beslissingen. Gebruikers moeten zelf kunnen bepalen of ze de aanbevelingen van AI-gebaseerde oplossingen accepteren.

  1. Verantwoorde, ethische praktijken hanteren

AI en ML gaan niet over het vervangen van menselijke besluitvormers. Integendeel, AI- en ML-gedreven applicaties doen voorspellingen die, in combinatie met een menselijk oordeel, helpen om betere beslissingen te nemen. Maar het succes van AI en ML hangt, net als bij elke andere opkomende technologie, af van vertrouwen, en dat vertrouwen bestaat alleen als bedrijven zich houden aan verantwoorde, ethische praktijken. Er kunnen op allerlei manieren vooroordelen in de AI-levenscyclus ontstaan. Bedrijven moeten open en eerlijk zijn over hoe ze hiermee omgaan. Een op risico’s gebaseerd beoordelingsproces kan evalueren of AI-oplossingen vatbaar zijn voor onbedoelde gevolgen en hoe die risico’s kunnen worden beheerd. Bedrijven moeten gebruikers en klanten inzicht kunnen bieden in de werking van hun AI-modellen. Denk aan duidelijke documentatie waarin wordt uitgelegd hoe de AI-oplossingen worden gebouwd, hoe ze werken, hoe ze worden getraind en getest, en welke test- en evaluatieprocedures er zijn. Verder moeten bedrijven weloverwogen te werk gaan en uitsluitend AI-oplossingen ontwikkelen die aansluiten bij de waarden van het bedrijf.

  1. Dataprivacy en -bescherming garanderen
    Dataprivacy en -bescherming is fundamenteel voor betrouwbare AI. Daarom moeten bedrijven de toegang tot data om AI-oplossingen te bouwen reguleren en controleren, en hier duidelijke privacyprincipes voor opstellen. Klanten moeten de controle houden over het gebruik van hun data in AI-oplossingen.

Betrouwbare AI begint met vertrouwen

AI en ML leveren alleen een echte meerwaarde als ze betrouwbaar zijn en menselijke capaciteiten niet vervangen, maar aanvullen. Dat betekent dat de basis moet bestaan uit vertrouwen. Bedrijven moeten klanten daarom een duidelijk inzicht bieden in de ontwikkeling en beoordeling van geleverde AI- en ML-producten om eventuele risico’s van het gebruik ervan te beperken. Het opstellen en naleven van bovengenoemde ethische AI-principes kan bedrijven helpen om in te spelen op de veranderende behoeften van klanten en te innoveren binnen snel veranderende en complexe regelgeving. Om bovengenoemde principes volledig te kunnen operationaliseren zijn samenwerking, helder beleid en gedocumenteerde procedures nodig. Werkbare, op risico’s gebaseerde regelgeving vergroot het vertrouwen in AI-technologie en faciliteert innovatie.

Dorien Roes, Country Manager Belux bij Workday

 

LAAT EEN REACTIE ACHTER

Please enter your comment!
Please enter your name here