Meta’s Adam Mosseri benadrukt het belang van het onderzoeken van door AI gegenereerde inhoud op sociale-mediaplatforms. Nu deepfakes steeds geavanceerder worden, is het vermogen om de werkelijkheid van verzinsels te onderscheiden essentieel voor gebruikers.
Meta’s Mosseri benadrukt dat de door AI gegenereerde inhoud onder de loep moet worden genomen
Mosseri’s opmerkingen komen voort uit de toenemende bezorgdheid over ‘deep fakes’, waarbij gebruik wordt gemaakt van generatieve vijandige netwerken (GAN) en verspreidingsmodellen zoals DALL-E 2 om valse beelden en video’s te creëren die moeilijk te onderscheiden zijn van authentieke inhoud. Het Instagram-hoofd is van mening dat sociale media kunnen helpen desinformatie te bestrijden door nep-inhoud te markeren, hoewel hij erkent dat niet alle onwaarheden kunnen worden opgespoord of adequaat kunnen worden geëtiketteerd. “Onze rol als internetplatforms is om de gegenereerde inhoud zo goed mogelijk als AI te bestempelen”, aldus hij.
Deep fakes zijn de afgelopen jaren aanzienlijk geëvolueerd. Het proces houdt in dat één AI-model een nepmodel genereert, terwijl een ander het identificeert en de nauwkeurigheid ervan voortdurend verfijnt. Dit resulteert in inhoud die alarmerend overtuigend kan zijn.
Naarmate deepfakes steeds populairder worden, waarschuwt Mosseri gebruikers ervoor niet blindelings op online afbeeldingen en video’s te vertrouwen. In een reeks berichten op Threads spoorde hij gebruikers aan om na te denken over de bron van gedeelde inhoud, waarmee hij het idee versterkte dat context cruciaal is in het digitale tijdperk. Hij legde uit: “Het voelt alsof we nu collectief beseffen dat het belangrijker is geworden om te overwegen wie iets zegt dan wat ze zeggen.” Dit perspectief sluit aan bij de zich ontwikkelende digitale geletterdheid, waarbij de geloofwaardigheid van de inhoudaanbieder net zo belangrijk is als de inhoud zelf.
In het socialemedialandschap is het vermogen om de authenticiteit van visuele inhoud te onderscheiden urgenter dan ooit. Mosseri wees op de noodzaak voor platforms om context te bieden over de oorsprong van gedeeld materiaal, in navolging van door de gebruiker geleide moderatie-initiatieven die op andere platforms te zien zijn. Hij benadrukte dat hoewel sommige vormen van door AI gegenereerde desinformatie kunnen worden geïdentificeerd, andere onvermijdelijk door de mazen van het net glippen.
De urgentie van dit probleem wordt nog eens onderstreept door de snelle vooruitgang in de AI-technologie. De huidige tools produceren gemakkelijk inhoud die echt lijkt en op grote schaal kunnen worden gedistribueerd, waarbij ze vaak de mogelijkheden van moderators om effectief te reageren te boven gaan. Terwijl gebruikers door een dagelijkse stroom aan informatie navigeren, worden ze aangemoedigd een scherp oog te ontwikkelen, waarbij ze overwegen wie de informatie deelt en wat de implicaties erachter zijn.
Er wordt nog steeds onderzoek gedaan naar de manier waarop platforms door AI gegenereerde inhoud labelen en modereren. Mosseri’s erkenning van de beperkingen van de huidige etiketteringspraktijken suggereert de behoefte aan robuustere strategieën om desinformatie te bestrijden. Gezien de technologische vooruitgang bij het genereren van AI-media blijft het een open vraag hoe platforms zich aan deze veranderingen aanpassen en het bewustzijn van gebruikers blijven bevorderen.
Hoewel Meta zinspeelt op toekomstige veranderingen in haar contentmoderatiestrategieën, is het onduidelijk hoe snel deze veranderingen zullen worden geïmplementeerd of hoe effectief ze zullen zijn in het tegengaan van de technologisch bedreven manipulaties die we vandaag de dag zien. De complexiteiten die door AI worden geïntroduceerd, zorgen voor uitdagingen die een proactief en geïnformeerd publiek vereisen, dat in staat is de inhoud die zij online consumeren kritisch te beoordelen.
Uitgelichte afbeeldingscredits: Hartono Creatieve Studio/Unsplash