Onderzoek uitgevoerd door de BBC heeft geconstateerd dat vier grote kunstmatige intelligentie (AI) chatbots – Openai’s Chatgpt, Microsoft’s Copilot, Google’s Gemini en Pertlexity AI – onacceptature nieuwsverhalen samenvatten. De studie omvatte deze chatbots met een samenvatting van 100 nieuwsverhalen afkomstig van de BBC -website.
BBC EXCLUSIEF: AI Chatbots Distort nieuwssamenvattingen
De BBC rapporteerde dat de antwoorden die door de AI -chatbots werden geproduceerd, “aanzienlijke onnauwkeurigheden” en vervormingen bevatten. Deborah Turness, CEO van BBC News and Current Affairs, opgemerkt in een Blogbericht Dat hoewel AI ‘eindeloze kansen’ biedt, ontwikkelaars ‘spelen met vuur’, die zich zorgen maken dat AI-verstoorde krantenkoppen echte schade kunnen veroorzaken.
Tijdens de studie, waarbij ratings van journalisten waren die experts waren in de respectieve onderwerpen van de artikelen, bleek dat 51% van de AI -reacties aanzienlijke problemen had. Onder de door AI gegenereerde antwoorden waarnaar werd verwezen naar BBC-inhoud, bevatte 19% feitelijke fouten, inclusief onjuiste verklaringen, cijfers en datums. Bovendien werd 13% van de offertes toegeschreven aan BBC -artikelen gewijzigd of verkeerd weergegeven.
Sommige specifieke onnauwkeurigheden die in het onderzoek zijn geïdentificeerd, waren onder meer Gemini waarin stond dat de National Health Service (NHS) van het VK niet aanrade vapen aan te bevelen om te stoppen met roken, terwijl dat in feite dat doet. Chatgpt en Copilot beweerden onnauwkeurig dat voormalige leiders Rishi Sunak en Nicola Sturgeon nog steeds in functie waren, ondanks hun vertrek. Perplexiteit heeft BBC -nieuws verkeerd geciteerd, wat suggereert dat Iran met “terughoudendheid” handelde met betrekking tot de acties van Israël.
De studie benadrukte dat Microsoft’s Copilot en Google’s Gemini meer belangrijke problemen vertoonden in vergelijking met Openai’s Chatgpt en Verwarde ai. De BBC had tijdelijk beperkingen opgeheven op de toegang tot deze AI -systemen tijdens de testfase in december 2024.
Openai haalt het Iraanse cluster neer met chatgpt om nepnieuws te maken
BBC’s programmadirecteur voor Generative AI, Pete Archer, benadrukte dat uitgevers moeten bepalen hoe hun inhoud wordt gebruikt en dat AI -bedrijven moeten onthullen hoe hun assistenten nieuws verwerken, inclusief foutenpercentages. Openai ging tegen dat ze samenwerken met partners om de nauwkeurigheid van in-line citaten te verbeteren en de voorkeuren van de uitgever te respecteren.
Na de studie drong Turness aan om technologiebedrijven aan te pakken om de geïdentificeerde problemen aan te pakken, vergelijkbaar met hoe Apple reageerde op eerdere BBC-klachten over AI-aangedreven nieuwssamenvattingen. Ze leidde tot een samenwerking tussen de technische industrie, nieuwsorganisaties en de overheid om de onnauwkeurigheden te verhelpen die het vertrouwen van het publiek in informatie kunnen uithollen.
De studie merkte verder op dat de neiging van Pertlexity AI om uitspraken uit bronnen te wijzigen en onthulde dat Copilot vertrouwde op verouderde artikelen voor zijn nieuwssamenvattingen. Over het algemeen wil de BBC een breder gesprek rond de regelgevende omgeving voor AI aangaan om een nauwkeurige nieuwsverspreiding te garanderen.
In antwoord op de bevindingen stelde Turness een cruciale vraag over het ontwerp van AI -technologieën om de nauwkeurigheid bij nieuwsconsumptie te bevorderen. Ze verklaarde dat het potentieel voor vervorming, verwant aan desinformatie, het vertrouwen van het publiek in alle informatieve media bedreigt.
Uitgelichte afbeeldingskrediet: Kerem gülen/ideogram