Wanneer resultaten van large language modellen (LLM’s) met valse of misleidende informatie toch als feiten worden gepresenteerd, spreken we van een artificial intelligence-hallucinatie. Hoewel dit in eerste instantie problematisch lijkt, kunnen deze AI-hallucinaties ook voordelen met zich meebrengen, zoals waardevolle inzichten en innovaties.
Wanneer is er sprake van een AI-hallucinatie?
Er is sprake van een AI-hallucinatie als een AI-systeem een uitvoer genereert die niet overeenkomt met de werkelijkheid – het is inconsistent, onjuist of onzinnig gezien de invoer. Bijvoorbeeld; je vraagt een AI-afbeeldingsgenerator om een foto van een hond. Vervolgens krijg je een rare verzameling van dierlijke onderdelen. Dat is dan een hallucinatie. Of als je een taalmodel een vraag stelt en het genereert vol vertrouwen een onjuist of onsamenhangend antwoord, dan is dat ook een hallucinatie.
Hallucinaties variëren van subtiele onnauwkeurigheden tot wilde fantasieën en ze zijn een grote zorg geworden voor veel mensen die overwegen AI in te zetten binnen hun organisatie. Maar je kan het ook anders bekijken, en de zogenaamde AL-hallucinaties niet als nadeel zien, maar als voordeel.
1. Opvallende creativiteit
AI-systemen zijn niet hetzelfde als traditionele software. In software is er een lineaire, voorspelbare relatie tussen input en output. De ontwikkelaar heeft de volledige controle. AI-systemen, met name neurale netwerken, hebben daarentegen een meer ondoorzichtige en complexe relatie tussen inputs en outputs. De ontwikkelaar traint het model en definieert de high-level architectuur, maar de specifieke manieren waarop het model leert van het trainingsproces zijn vaak onverklaarbaar.
Zelfs experts zijn soms niet in staat om precies uit te leggen waarom een neuraal netwerk een bepaalde beslissing heeft genomen of een bepaalde output heeft geleverd. Er is een black box-element, waarbij het model zijn eigen representaties leert die niet altijd netjes overeenkomen met menselijke concepten. Dit is waar AI lijkt op menselijke creativiteit. Net als de hersenen is een neuraal netwerk een ingewikkeld, gelaagd systeem dat tot nieuwe en verrassende resultaten kan komen door een complex samenspel van aangeleerde patronen. Het is niet-lineair en wordt niet altijd volledig begrepen.
Als een AI hallucineert, vertoont hij creativiteit en lateraal denken dat tot voor kort als puur menselijk werd beschouwd. Het legt onverwachte verbanden, treedt buiten de gebaande paden op een manier die tot verrassende inzichten kan leiden. Deze verschuiving van lineaire, voorspelbare software naar niet-lineaire, onvoorspelbare AI is een interessante stap. Het daagt ons begrip van creativiteit en intelligentie uit. Het suggereert dat deze eigenschappen misschien niet zo exclusief menselijk zijn als we dachten. We staan aan de vooravond van een nieuw tijdperk, waarin de grens tussen menselijke en machinale creativiteit vervaagt. En dat is echt inspirerend.
2. Gelukkig toeval
De realiteit van wetenschappelijke ontdekkingen is vaak toevallig. Penicilline werd bij toeval ontdekt toen Alexander Fleming merkte dat een vervuild petrischaaltje een bacteriedodende schimmel bevatte. De magnetron werd uitgevonden nadat Percy Spencer merkte dat een radar magnetron een chocoladereep in zijn zak deed smelten.
Het ‘hallucinatieprobleem’ van AI zorgt voor soortgelijke ‘gelukkige ongelukken’ en wetenschappelijke inzichten. Onderzoekers van Stanford Medicine en McMaster University creëerden een AI-model genaamd SyntheMol, dat razendsnel potentiële medicijnstructuren en recepten genereerde. De hallucinaties van het model maakten het mogelijk om onbekende chemische ruimtes te verkennen, wat resulteerde in geheel nieuwe verbindingen. Zes van deze verbindingen bleken effectief tegen een resistente bacteriestam, en twee ervan gingen door naar dierproeven. Deze innovatieve aanpak zou kunnen helpen bij het ontdekken van behandelingen voor andere antibiotica-resistente infecties en ziekten zoals hartziekten.
Oftewel, door verrassende verbanden te leggen, helpt AI ons los te komen van lineair denken en opent het nieuwe wegen voor innovatie. Bij het ontwikkelen van deze systemen moeten we het potentieel van hallucinaties omarmen als een bron van creatief inzicht en vooruitgang.
3. AI verbeteringen
AI-hallucinaties kunnen ons ook helpen verborgen uitdagingen te identificeren en aan te pakken. Denk aan afwijkingen of bias in AI-systemen. Als een AI consequent hallucineert op een manier die stereotypen of vooroordelen weerspiegelt, waarschuwt dit ontwikkelaars voor deze vooroordelen in de trainingsgegevens of modelarchitectuur. Dit zet aan tot inspanningen om deze vooroordelen te identificeren en te beperken, wat leidt tot meer rechtvaardige AI-systemen. Zie hallucinaties als een kanarie in de kolenmijn, die waarschuwt voor problemen voordat ze diepgeworteld raken.
Ze kunnen ook hiaten of kwaliteitsproblemen in trainingsgegevens aan het licht brengen. Als een AI vaak hallucineert over bepaalde onderwerpen, kan dit erop wijzen dat de trainingsgegevens op deze gebieden tekortschieten. Dit leidt tot inspanningen om uitgebreidere gegevens te verzamelen, waardoor de prestaties van de AI verbeteren. Hallucinaties nodigen ons uit om de innerlijke werking van AI te onderzoeken, om in de zwarte doos te kijken en inzichten te verwerven.
4. Hallucinaties en kwaliteitscontrole
Hallucinaties herinneren ons eraan dat AI niet onfeilbaar is en dat we niet zomaar de controle uit handen kunnen geven en foutloze resultaten kunnen verwachten. In plaats daarvan onderstrepen hallucinaties de noodzaak voor mensen om met AI samen te werken en er niet alleen op te vertrouwen.
Dit betekent dat we in elke fase goed moeten opletten. Bij het invoeren van gegevens moeten we rekening houden met mogelijke vertekeningen of hiaten. Door ongebruikelijke reacties op te merken, de oorsprong ervan te achterhalen en ze te corrigeren, verfijnen en verbeteren we de prestaties van de AI. Verantwoord AI-gebruik betekent verantwoordelijkheid nemen voor toezicht en correctie. Het betekent de output van de AI in twijfel trekken, dieper graven als iets niet lijkt te kloppen en de resultaten voortdurend vergelijken met echte gegevens en menselijke expertise. Een AI hallucinatie is dus eigenlijk een ingebouwd mechanisme voor kwaliteitscontrole en voortdurende verbetering.
5. Leren omgaan met AI
Door hallucinaties te monitoren en te onderzoeken, ontdekken we patronen in waar en hoe ze zich voordoen. Op deze manier dient een gedisciplineerde benadering van hallucinaties als een routekaart die de meest veelbelovende wegen voor AI-ontwikkeling en -toepassing markeert. Maar het realiseren van dit potentieel vereist meer dan alleen technische verfijningen. Het vereist een focus op training en verandermanagement.
Nu AI-tools steeds geavanceerder worden, moeten we mensen ook de vaardigheden bijbrengen om er verantwoordelijk en effectief mee om te gaan. Dit betekent investeren in training die niet alleen betrekking heeft op mechanica, maar ook op kritische denkvaardigheden om de output te interpreteren en erop te reageren.
Het betekent ook proactief omgaan met veranderingen, anticiperen op organisatorische en psychologische belemmeringen en deze aanpakken. Dit kan betekenen dat je werkstromen moet heroverwegen, rollen opnieuw moet definiëren en ondersteuning moet bieden om mensen te helpen zich aan te passen aan een snel veranderende wereld. Door ons te richten op deze menselijke elementen – training, cultuur en verandermanagement – creëren we een omgeving waarin de gedisciplineerde, gezamenlijke benadering van AI-hallucinaties gedijt. We stellen mensen in staat om actieve partners te worden bij het vormgeven van de toekomst van artificial intelligence. Dat is niet alleen een mooi streven, maar ook noodzakelijk voor een nuttig en veilig gebruik van AI.
Arwen Vink, solution specialist bij SoftwareOne