Denemarken stelt nieuwe wetgeving voor om zijn digitale auteursrechtwetgeving te wijzigen, wat de toenemende dreiging van door AI gegenereerde Deepfakes aanpakt. De voorgestelde wijzigingen proberen individuele rechten met betrekking tot hun digitale identiteiten te beschermen als reactie op de toename van diepe vage Aanvallen, die hebben geleid tot aanzienlijke financiële verliezen en de verspreiding van desinformatie.
Deepfakes gebruiken kunstmatige intelligentie om realistische nepbeelden, video’s en audio -opnames te produceren. De technologie is op verschillende manieren gebruikt, van het creëren van humoristische inhoud tot het plegen van financiële fraude en het verspreiden van misleidende informatie. De World Economic Forum’s Global Coalition for Digital Safety werkt aan het bevorderen van publiek-private samenwerking om schadelijke online inhoud, inclusief deepfakes, te bestrijden en om digitale mediageletterdheid te verbeteren.
Het amendement van de Deense regering, beschouwd als een baanbrekende inspanning in Europa, heeft als doel de controle van individuen over hun identiteit te beschermen, met name hun uiterlijk en stem. De regering wil het amendement in de herfst indienen, wat aangeeft de urgentie waarmee zij de kwestie bekijkt. Het voorstel heeft cross-party-ondersteuning gekregen, wat een consensus suggereert over de noodzaak om deperfake-gerelateerde uitdagingen aan te gaan.
Deepfakes maken gebruik van AI -technologie, met name ‘diep leren’, om gemanipuleerde of volledig gefabriceerde inhoud te creëren. Deze technologie kan de bestaande inhoud veranderen, zoals geïllustreerd door het gezicht van de ene acteur te vervangen door de andere in filmclips. Het kan ook nieuwe inhoud genereren, individuen weergeven die dingen zeggen of doen die ze nooit echt hebben gedaan. Hoewel sommige toepassingen, zoals gezichtswisseling in filmscènes, misschien onschadelijk lijken, doen ze zich zorgen over het recht van het individu op hun imago.
In 2023 gingen Amerikaanse acteurs in staking om te pleiten voor controle over het gebruik van hun afbeeldingen door AI. De staking bracht film- en tv -producties tot stilstand. De actoren hebben een toezegging van de industrie gesloten dat elk toekomstige AI -gebruik van hun afbeeldingen hun expliciete toestemming zou vereisen. Dit evenement benadrukt het groeiende bewustzijn en de bezorgdheid over het gebruik van AI om de gelijkenissen van individuen zonder toestemming te manipuleren of te repliceren.
Een belangrijke dreiging van Deepfakes is hun gebruik bij het verspreiden van nepnieuws. Gevallen omvatten Deepfakes van de voormalige Amerikaanse president Joe Biden en Oekraïense president Volodymyr Zelenskyy. Door het uiterlijk te creëren dat berichten afkomstig zijn van betrouwbare bronnen, kunnen deepfakes geloofwaardigheid geven aan valse informatie, waardoor de publieke opinie en politiek discours mogelijk worden beïnvloed.
Lijken op.aiHet onderzoek van de financiële fraude en cybercriminaliteit vertegenwoordigt substantiële groeigebieden voor deepfake -toepassingen. Terwijl 41% van deepfake -doelen zijn publieke figuren, waaronder beroemdheden, politici en zakelijke leiders, 34% zijn particulieren, overwegend vrouwen en kinderen. Organisaties zijn goed voor 18% van degenen die het doelwit zijn van deepfakes.
Het Britse ingenieursbureau Arup ervaren een deepfake -zwendel die resulteerde in een financieel verlies van $ 25 miljoen. Cybercriminelen gebruikten een door AI gegenereerde kloon van een senior manager om een financiële medewerker te overtuigen om de fondsen tijdens een videogesprek over te dragen. Dit exemplaar illustreert het potentieel voor deepfakes om geavanceerde financiële misdaden te vergemakkelijken.
Een fraudepoging om zich te richten Ferrari betrokken bij het gebruik van een AI-gegenereerde stem van CEO Benedetto Vigna. Een werknemer dwarsboomde de poging door een vraag te stellen die alleen de echte CEO kon beantwoorden. A BBC Journalist demonstreerde het potentieel voor spraakklonering door het stemidentificatiesysteem van haar bank te omzeilen met behulp van een synthetische versie van haar eigen stem. Deze voorbeelden onderstrepen de toenemende verfijning en toegankelijkheid van deepfake -technologie voor kwaadaardige doeleinden.
Lijken op.ai’s Deepfake Security Report voor Q2 2025 onthulde een significante toename van publiekelijk bekendgemaakte deepfake -aanvallen. Het rapport gedocumenteerd 487 dergelijke aanvallen, die een 41% verhoging vergeleken met het vorige kwartaal en een 300% verhoging Jaar-op-jaar. De bevindingen van het bedrijf gaven ook aan dat directe financiële verliezen als gevolg van deepfake -oplichting bijna hebben bereikt $ 350 miljoen. Lijken op.ai Ook merkte op dat deepfake -aanvallen om de zes maanden verdubbelen, wat de escalerende aard van de dreiging benadrukt.
Lijken op.ai Geeft aan dat fraude in deepfake een wereldwijd probleem is, met name gangbaar in technologisch geavanceerde regio’s. Terwijl de VS leidt in gerapporteerde incidenten, zijn de diepvoetige gevallen ook wijdverbreid in Azië -Pacific en Europa, met een snelle toename waargenomen in Afrika. Deze wereldwijde distributie onderstreept de behoefte aan internationale samenwerking bij het aangaan van de uitdagingen van deepfakes.
De VS hebben de Take It Down -wet geïmplementeerd, waardoor schadelijke diepe diepgaan naar binnen nodig is 48 uur en het opleggen van federale strafrechtelijke straffen voor hun distributie. De wet verplicht ook dat openbare websites en mobiele apps rapportage- en verwijderingsprocedures vaststellen. Staatswetgevers in Tennessee, Louisiana en Florida hebben hun eigen deepfake-wetten vastgesteld, wat een veelzijdige benadering aantoont om het probleem aan te pakken.
De Digital Services Act (DSA) van de Europese Unie, die in 2024 van kracht is, heeft als doel illegale en schadelijke activiteiten online te voorkomen, inclusief de verspreiding van desinformatie. De DSA heeft online serviceproviders onder meer controle geplaatst en er zijn al verschillende formele onderzoeken voor niet-naleving aan de gang. Het VK heeft een soortgelijke aanpak gevolgd met de online veiligheidswet, geïmplementeerd in begin 2025.
Door de Deense wijziging in staat zijn personen die getroffen zijn door deepfake -inhoud in staat te stellen om de verwijdering ervan te vragen. Kunstenaars kunnen een vergoeding eisen voor ongeoorloofd gebruik van hun imago. Het recht op compensatie zou zich uitstrekken 50 jaar voorbij de dood van de kunstenaar. Online platforms zoals Meta en X kunnen te maken krijgen met aanzienlijke boetes als de gewijzigde rekening wordt aangenomen zoals voorgesteld. Het wetsvoorstel zou de juridische basis leggen voor het vragen van schadevergoeding volgens de Deense wet, hoewel het niet direct voorziet in schadevergoeding of strafrechtelijke vervolging.
Met Denemarken dat het presidentschap van de Raad van de Europese Unie houdt, wil het media en cultuur binnen de Europese democratie prioriteren door initiatieven zoals het European Democracy Shield. De wijziging van de binnenlandse auteursrechtwetgeving zal naar verwachting sterke politieke signalen sturen naar zowel Brussel als de bredere EU. Deze actie weerspiegelt de toewijding van Denemarken om de uitdagingen van deepfakes aan te gaan en een veiligere online omgeving te promoten.
De World Economic Forum’s Global Coalition for Digital Safety is bedoeld om cross-regionale samenwerking voor online veiligheid te bevorderen. Dit omvat het versnellen van publiek -private samenwerking om schadelijke inhoud aan te pakken, inclusief deepfakes. De coalitie vergemakkelijkt ook de uitwisseling van best practices in online veiligheidsregelgeving en ondersteunt inspanningen om digitale media -geletterdheid te verbeteren. Door samenwerking en kennisuitwisseling te bevorderen, beoogt de coalitie de wereldwijde inspanningen te verbeteren om deepfakes te bestrijden en een veiliger digitale omgeving te bevorderen.





