
Generatieve AI (genAI), ofwel kunstmatige intelligentie die dingen genereert, wie daar nog niets over gehoord heeft sinds de komst van ChatGPT, die heeft daar echt zijn/haar best voor moeten doen. Om maar gewoon te zeggen: je wordt er mee doodgegooid. De afbeelding in deze blog maakte ik door de tekst “ai misbehaving –ar 2:1” in de genAI Midjourney te typen. Dat noemen we overigens een “prompt”. Ik vind het mooi want zo kunstzinnig ben ik van mezelf helemaal niet. Even afgezien van het feit dat massaliteit geen garantie is voor kwaliteit en dat we het als Nederlanders natuurlijk nooit exact eens zullen zijn, vind ik al die aandacht wel erg belangrijk. Want de inmiddels bekende vraagstukken over genAI moeten echt beantwoord worden voordat gebruik vanzelfsprekend mag worden.
Risico’s van genAI
Eén van de vraagstukken gaat over risico’s. Die zijn er in vele soorten. Hoe oud zijn de gegevens waarmee het model getraind is? Wat gebeurt er met de gegevens van jou en je vragen? Hoe zit het met copyright? Hoe goed of fout zijn de antwoorden van AI? Ik kom daar zo op terug. En privacy dan? Toen Nine News in Australië een foto plaatste van parlementslid Georgie Purcell, met door genAI vergrote borsten en haar jurkje verknipt in een topje en rok (met ruimte ertussen), was een rel onvermijdelijk. Afhankelijk worden van big tech? Studenten die valsspelen? Hackers die van genAI leren? Fake news verspreiders? Heeft genAI vrijheid van meningsuiting? Is AI slecht voor het milieu (ja)?
Foute antwoorden door genAI
Iedereen die wel eens genAI gebruikt heeft moeten lachen om domme antwoorden. De term hallucineren is inmiddels ingeburgerd. Hoe kan genAI gewoon dingen verzinnen? Dat komt doordat deze vormen van AI niet intelligent zijn of zelfs maar na kunnen denken. Het model kan wel interpreteren maar begrijpt niet waar het werkelijk over gaat. Zo krijg je onbedoelde onwaarheden zoals plaatjes van mensen met teveel ledematen in onbestaanbare houdingen of een wijnglas zonder steel, dat desondanks stabiel staat. Vergis je daarnaast niet, vaak komt de data van internet, wat op zich al garantie voor vele onwaarheden is.
AI discrimineert niet
Onder die verkeerde antwoorden vallen ook de situaties waarin AI zich bevooroordeeld of zelfs racistisch gedraagt. Toch is mijn stelling dat AI helemaal niet discrimineert. Kom op, AI is een computermodel en computers hebben geen emoties. Ze denken ook (nog) niet na. Nee, niets van dat. Het gedrag vloeit voort uit de trainingsdata. Verkeerde data betekent verkeerde antwoorden. En het gaat nog dieper. Soms houden agenten gekleurde mensen eerder aan dan niet gekleurde mensen. Ook in Nederland? Vraag dat maar eens aan Typhoon. Het gedrag van deze agenten wordt gereflecteerd in de data. En daar ga je al.
Stel je voor dat mensen met blauw haar vaker de fout ingaan dan andere mensen. Dan komt dat in de data en AI zal dat terecht gebruiken. Hoewel het inzicht over deze mensen gewoon de waarheid is mag het niet, want gebaseerd op profilering. De waarheid kan hard zijn.
Het is zo simpel nog niet. Ik wens iedereen veel wijsheid en toch ook veel plezier met genAI!
Hans van Buuren is enterprise architect bij Reclassering Nederland