Naarmate deepfake-technologie vordert, stijgen de bezorgdheid over verkeerde informatie en identiteitsdiefstal, benadrukt door een recent Iproov-onderzoek dat onthult dat de meeste individuen moeite hebben om onderscheid te maken tussen reële en door AI gegenereerde inhoud.
De studie Betrokken 2.000 deelnemers in het Verenigd Koninkrijk en de VS, waardoor ze worden blootgesteld aan een mix van echte en diepgaande afbeeldingen en video’s. Alarmerend, slechts 0,1% van de deelnemers, in totaal slechts twee individuen, zou nauwkeurig kunnen onderscheiden tussen de reële en deepfake -stimuli.
Oudere volwassenen kwamen naar voren als bijzonder kwetsbaar voor door AI gegenereerde misleiding. Ongeveer 30% van de deelnemers van 55-64 en 39% van degenen ouder dan 65 meldden dat ze nog nooit van deepfakes hadden gehoord voorafgaand aan de studie. Hoewel jongere deelnemers (18-34 jaar oud) meer vertrouwen vertoonden in hun vermogen om deepfakes te detecteren, weerspiegelden hun werkelijke prestaties geen weergave van verbetering.
Deepfake -detectie -uitdagingen
De studie gaf aan dat het detecteren van deepfake -video’s aanzienlijk uitdagender was dan het identificeren van afbeeldingen. Deelnemers hadden 36% minder kans om een synthetische video nauwkeurig te identificeren in vergelijking met een synthetisch beeld, wat bezorgdheid uitte over het potentieel voor video-gebaseerde fraude, zoals imitatie tijdens videogesprekken.
Sociale mediaplatforms werden geïdentificeerd als belangrijke bronnen van deepfake -inhoud. Bijna de helft van de deelnemers (49%) noemde meta -platforms, waaronder Facebook en Instagram, als de meest voorkomende sites voor deepfakes, terwijl 47% op Tiktok wees.
Andrew Bud, oprichter en CEO van Iproov, gaf commentaar op de bevindingen en merkte op dat de verhoogde kwetsbaarheid van zowel organisaties als consumenten voor identiteitsfraude in het Deepfake -tijdperk. Hij verklaarde: “Criminelen exploiteren het onvermogen van consumenten om het reëel te onderscheiden van nep -beelden, persoonlijke informatie en financiële zekerheid in gevaar te brengen.” Ondanks de alarmerende resultaten bleek uit de studie dat slechts 20% van de respondenten een vermoedelijke Deepfake online zou rapporteren.
Naarmate deepfakes steeds geavanceerder worden, suggereert Iproov dat alleen menselijke perceptie onvoldoende is voor betrouwbare detectie. Bud benadrukte de noodzaak voor biometrische beveiligingsoplossingen met levendigheidsdetectie om de dreiging te bestrijden die wordt gesteld door overtuigend deepfake -materiaal.
Het onderzoek van Iproov toont een dringende behoefte aan organisaties om hun klanten te beschermen door robuuste beveiligingsmaatregelen te integreren. Bud is van mening dat het gebruik van gezichtsbiometrie met Liilly Detection een betrouwbare authenticatiefactor biedt die prioriteit geeft aan zowel beveiliging als individuele controle.
Volgens de studie had slechts 22% van de consumenten van deepfakes gehoord voordat ze deelnamen. Bovendien vertoonden veel individuen aanzienlijk overmoed met betrekking tot hun detectievaardigheden, waarbij meer dan 60% geloofde dat ze deepfakes konden identificeren, ondanks een meerderheid die slecht presteerde. Onder jongere volwassenen was dit valse gevoel van veiligheid vooral gangbaar.
De bevindingen duidden ook op een daling van het vertrouwen tegenover sociale mediaplatforms nadat gebruikers zich bewust waren geworden van deepfakes, waarbij 49% een afname van het vertrouwen meldde. Ondertussen uitte 74% van de deelnemers hun bezorgdheid over de maatschappelijke gevolgen van deepfakes, met name de verspreiding van verkeerde informatie, wat een hoogste zorg was voor 68% van de respondenten. Deze vrees was opmerkelijk sterk bij oudere generaties, waarbij tot 82% van de personen van 55 jaar en ouder angsten met betrekking tot valse informatieverspreiding.
Waarom kleine AI -modellen grote niet bijhouden
Minder dan een derde van de ondervraagde (29%) gaf aan dat ze geen actie zouden ondernemen bij het tegenkomen van een vermoedelijke diepvoeding. Het gebrek aan betrokkenheid is deels te wijten aan 48% van de respondenten waarin staat dat ze niet weten hoe ze deepfakes moeten melden, terwijl een kwart onverschilligheid heeft toegegeven voor vermoedelijke diepvallen. Slechts 11% analyseert kritisch bronnen en context om de authenticiteit van informatie te bepalen, waardoor een landschap ontstaat waar veel individuen zeer gevoelig blijven voor bedrog.
Professor Edgar Whitley, een expert op het gebied van digitale identiteit, waarschuwde dat organisaties niet alleen kunnen vertrouwen op menselijk oordeel om deepfakes te detecteren en alternatieve methoden van gebruikersauthenticatie moeten onderzoeken.
De groeiende prevalentie van deepfakes vormt aanzienlijke uitdagingen in het digitale landschap. Het 2024 -dreigingsinformatierapport van Iproov duidde op een verbluffende toename van 704% in gezichtswaps, en benadrukte hun rol als hulpmiddelen voor cybercriminelen die ongeautoriseerde toegang tot gevoelige gegevens zoeken. Deze trend benadrukt de dringende behoefte aan verbeterde bewustzijn en technologische oplossingen om de diepvoedinggerelateerde bedreigingen te dwarsbomen.
Uitgelichte afbeeldingskrediet: Kerem gülen/ideogram