- Deepfake-detectie is een veelzijdige uitdaging die geavanceerde technologie en menselijk oordeel vereist.
- Deepfakes vormen een reële bedreiging en hebben gevolgen voor individuen, bedrijven en hele samenlevingen.
- We moeten vaardigheden op het gebied van kritisch denken cultiveren en een verantwoord gebruik van technologie bevorderen.
- Bedrijven moeten pleiten voor robuuste deepfake-detectieoplossingen om zichzelf en consumenten te beschermen.
In onze steeds meer gedigitaliseerde levens, waar beelden een buitengewone kracht hebben, ontstaat er een nieuwe dreiging en hebben we snel een oplossing nodig: deepfake-detectie.
Deze door AI gegenereerde synthetische media bootsen op overtuigende wijze echte mensen na, waardoor het moeilijker wordt om feit van fictie te scheiden.
Louise Bruder, een superherkenner met het ongelooflijke vermogen om gezichten te onthouden, werkt voor het Britse digitale ID-bedrijf Yoti, waar ze helpt bij het verifiëren van de authenticiteit van identiteitsdocumenten. Maar zelfs haar scherpe vaardigheden staan voor een nieuwe uitdaging nu Yoti actief technologie ontwikkelt om de groeiende dreiging van deepfakes te bestrijden.

Hoe deepfakes misleiden?
Deepfakes vertrouwen op verfijnd machinaal leren algoritmen. Deze algoritmen zijn getraind op enorme datasets met afbeeldingen of video’s van een beoogde persoon. De AI leert de manieren, de stem en de gelijkenis van het doelwit met een verontrustende nauwkeurigheid te reproduceren. Hierdoor kunnen makers beelden manipuleren, woorden in de mond van mensen leggen of ze laten verschijnen in situaties die ze nooit zijn geweest.
De gevolgen zijn verstrekkend. Deepfakes kunnen reputaties aantasten, verkeerde informatie verspreiden en het vertrouwen in instellingen ondermijnen. Stel je de chaos voor als een deepfake van een wereldleider die de oorlog verklaart viraal gaat.
De deepfake-detectierace
De strijd tegen deepfakes escaleert. Onderzoekers en technologiebedrijven ontwikkelen geavanceerde tools om deze digitale vermommingen bloot te leggen. De belangrijkste strategieën zijn onder meer:
- jacht op inconsistentie: Deepfake-detectiesoftware analyseert video’s frame voor frame, op zoek naar afwijkingen zoals onnatuurlijke knipperpatronen, niet-overeenkomende lipsynchronisatie of glitches in gelaatstrekken.
- Digitale vingerafdrukanalyse: Afbeeldingen en video’s bevatten verborgen metadata en dienen als digitale voetafdruk. Deepfake-detectoren kunnen deze gegevens analyseren op tekenen van AI-manipulatie.
- Bron volgen: Het kennen van de oorsprong van een mediabestand kan waardevolle aanwijzingen opleveren. Detectoren worden geïntegreerd in onlineplatforms om mogelijk gemanipuleerde media te signaleren en de bron ervan te traceren.
Net zoals de detectietechnieken vooruitgaan, geldt dat ook voor de methoden van de deepfake-makers.
Ben Colman, hoofd van Realiteitsverdediger (een bedrijf gespecialiseerd in deepfake-detectieoplossingen) gelooft dat zelfs getalenteerde superherkenners zoals Louise uiteindelijk moeite zullen hebben om echt van nep te onderscheiden. Het is een voortdurend technologisch kat-en-muisspel, waarbij steeds geavanceerdere detectie-algoritmen nodig zijn die subtiele fysiologische signalen kunnen analyseren.
Het scala aan bedreigingen
Colman maakt onderscheid tussen zeer geavanceerd deepfakes die mogelijk worden ingezet voor door de staat gesponsorde desinformatiecampagnes, en ‘goedkope nepproducten’, waarbij criminelen gemakkelijk verkrijgbare AI-software gebruiken. Zelfs deepfakes van lagere kwaliteit kunnen mensen met succes misleiden, vooral met afbeeldingen en audio. Stemklonen is een groeiend probleem, waardoor criminelen de stem van iemand kunnen nabootsen om geld te extraheren of emoties te manipuleren.

Professor Siwei Lyu, een deepfake-expert van de Universiteit van Buffalo, ontwikkelt detectie-algoritmen die op zoek gaan naar subtiele aanwijzingen. Hij waarschuwt dat videoconferenties het volgende doelwit kunnen zijn van deepfake-aanvallen, waarbij criminelen zich tijdens live videogesprekken kunnen voordoen als echte mensen.
De maatschappelijke impact van deepfakes
Het potentieel voor deepfakes wijdverbreide ontwrichting veroorzaken is enorm. Van vervalste beelden van explosies tot audio-opnamen van politici die opruiende uitspraken doen: de kans op chaos is groot. In één geval veroorzaakte een deepfake van een geliefde overleden IJslandse komiek landelijke opschudding en leidde tot discussies over AI-regulering.
AI met AI bestrijden
Geavanceerde deepfake-detectietools maken vaak zelf gebruik van de kracht van AI:
- FakeCatcher van Intel: Deze realtime detectietool bereikt een indrukwekkende nauwkeurigheid van 96%. Het analyseert subtiele bloedstroompatronen in video’s om echte gezichten van verzonnen gezichten te onderscheiden.
- Sentinel: Een toonaangevend, op AI gebaseerd beveiligingsplatform dat door overheden en bedrijven wordt gebruikt om deepfakes te bestrijden. Met Sentinel kunnen gebruikers media uploaden voor geautomatiseerde analyse.
- Andere veelbelovende tools: Ontwikkelaars creëren en verfijnen voortdurend tools zoals Deepware AI (gericht op evoluerende online trends) en Sensity AI (getraind in de nieuwste frameworks voor het maken van deepfake).

De grenzen van AI en de behoefte aan menselijk onderscheidingsvermogen
Terwijl door AI aangedreven detectietools evolueren, waarschuwen experts voor een volledige afhankelijkheid van technologie. Christopher Doss van de Rand Corporation waarschuwt voor een wapenwedloop tussen opsporing en ontduiking, waarbij de noodzaak van kritisch denken en vaardigheden op het gebied van bronverificatie wordt benadrukt.
Hoewel bedrijven als Yoti de waarde begrijpen van het combineren van menselijk onderscheidingsvermogen met technologische verdedigingsmiddelen om het vertrouwen in een tijdperk van deepfakes te behouden, moeten we accepteren dat dit een gezamenlijk doel is en samen optreden.
Uitgelicht beeldtegoed: Freepik