Home Artificial intelligence De opkomst van deepfakes vraagt om waakzaamheid en kritisch denken

De opkomst van deepfakes vraagt om waakzaamheid en kritisch denken

Zscaler -
19

AI-gebaseerde deepfakes hebben zich het afgelopen jaar bewezen als een effectieve manier van misleiding. Ze zijn ontwikkeld van basale e-mailspoofing tot een zeer geavanceerde phishingtechniek die gebruikmaakt van gemanipuleerde audio en video. De oorsprong van deepfakes kan worden herleid tot de inherente kwetsbaarheden van e-mailtechnologie en een gebrek aan robuuste mechanismen voor het verifiëren van de identiteit van de afzender. Dit probleem heeft ervoor gezorgd dat aanvallers nieuwe technologieën zoals AI kunnen misbruiken voor steeds gevaarlijkere aanvallen.

Deepfakes bestaan in twee categorieën: audio- en videoscams. Hoewel audiomanipulatie al meer dan tien jaar bestaat, is het onlangs ontwikkeld naar neptelefoongesprekken, videofakes en door AI gegenereerde deepfakes op basis van openbaar beschikbare videofragmenten. Een groot probleem is dat dit soort deepfakes gegenereerd kunnen worden door personen met verschillende niveaus van technisch expertise, dankzij AI-tools die het harde werk voor hen doen. Deze democratisering van deepfake-technologie vormt een ernstige bedreiging.

Het schadepotentieel van deepfakes

De gevolgen van deepfakes gaan veel verder dan alleen desinformatie en het misleiden van mensen om betalingen te doen. De nieuwste deepfakes ondermijnen het vertrouwen, zowel privé als professioneel. Vertrouwen is de hoeksteen van menselijke interactie. Als mensen de realiteit niet langer van fictie kunnen onderscheiden, begint het sociale weefsel af te brokkelen. Stel je eens voor dat een manager AI gebruikt om een videoverslag te maken op basis van feitelijke gegevens. Hoewel de informatie juist kan zijn, zorgt een kunstmatige weergave voor een gebrek aan authenticiteit in de communicatie, wat teamleden een ongemakkelijk gevoel kan geven.

Dit wantrouwen in nieuwe manieren om content te maken beperkt zich niet tot onschuldige situaties. Deepfakes kunnen ook als wapen worden gebruikt en leiden tot ernstige reputatieschade. Gevallen van gemanipuleerde afbeeldingen, zoals expliciete content zonder wederzijdse toestemming, hebben al geleid tot juridische geschillen en maatschappelijke verontwaardiging. Doordat zulke content snel en breed verspreid kan worden via sociale platforms, wordt de impact ervan vergroot en ontstaat er een cultuur van angst en onzekerheid.

De psychologische impact van deepfakes

De psychologische gevolgen van deepfakes kunnen enorm zijn voor zowel de maatschappij als het individu. Zo kan gemanipuleerde politieke content het vertrouwen in publieke figuren en instellingen schaden en de democratische processen van een maatschappij ondermijnen. Als de woorden van een politicus in een nepcontext worden gebruikt, veroorzaakt dit maatschappelijk wantrouwen: wie kun je dan nog vertrouwen? En hoe kan een deepfake door het individu worden gedetecteerd of bewezen?

Vooral de jongere generatie loopt risico. Omdat hun leven steeds meer wordt bepaald door schermen en social media, kan deze doelgroep problemen hebben met authenticiteit en vertrouwen. Ze bewegen zich in een wereld waarin de realiteit gemakkelijk kan worden vervormd. Hierdoor neemt het risico op sociaal isolement en psychische problemen toe.

Hoe kunnen we deepfakes bestrijden?

Als reactie op het groeiende gebruik van deepfakes worden er grote inspanningen geleverd om AI niet alleen te gebruiken voor contentcreatie, maar ook voor detectie van kunstmatige content. In de komende jaren zien we een toename in het aantal bedrijven dat AI-technologieën ontwikkelt die specifiek zijn ontworpen voor de detectie van deepfakes. Daarnaast worden er regelgevende maatregelen verwacht, met name binnen de EU, gericht op het vaststellen van normen en het voorkomen van misbruik van deze technologie.

Iets dat nu al kan helpen bij het controleren van content zijn digitale watermerken. Om medewerkers veilig te houden is er echter een gelaagde aanpak nodig die AI-verificatie combineert met persoonlijke identificatiegegevens, zoals unieke trefwoorden. Dit zou bijna werken als de tweefactorauthenticatie die we momenteel gebruiken voor wachtwoordbeveiliging. Totdat deze technologieën volwassen worden, speelt onderwijs een cruciale rol in de strijd tegen de negatieve effecten van deepfakes. Het trainen van mensen om deepfakes te herkennen, zou een essentieel onderdeel moeten worden van professionele en academische onderwijsprogramma’s, zodat de samenleving beter door deze misleidende omgeving kan navigeren.

Hoe ziet de toekomst eruit?

Deepfakes zullen tot meer verwarring en wantrouwen leiden. Naarmate de samenleving worstelt met deze uitdagingen, worden discussies over regulering en beveiliging belangrijker. Op de lange termijn kunnen mensen AI-tools gebruiken om deepfakes op persoonlijke apparaten te detecteren. Dit bevordert een cultuur van voorzichtigheid en kritisch denken. Uiteindelijk moet de reactie van de maatschappij, zoals de technologie, ook ontwikkelen. De strijd tegen deepfakes vereist waakzaakheid en innovatie. De gevolgen van passiviteit zijn veel te ernstig om te negeren. Vertrouwen is, als het eenmaal verloren is, ongelooflijk moeilijk terug te winnen en de inzet is nog nooit zo hoog geweest. Het zero trust-principe heeft aangetoond hoe organisaties erin kunnen slagen om vertrouwen in digitale interacties te herstellen.

James Tucker, Head of CISO’s bij Zscaler

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in