Consumentenrapporten blijkt dat verschillende populaire spraakkloneringstools onvoldoende waarborgen hebben tegen fraude of misbruik, waarbij mogelijke risico’s worden benadrukt die verband houden met AI -spraaktechnologie. De studie onderzocht producten van zes bedrijven: descript, elflabs, lovo, playht, lijken op AI en spraak.
Uit het onderzoek bleek dat alleen beschrijven en op AI zinvolle maatregelen hebben geïmplementeerd om misbruik te voorkomen. Andere tools vereisen alleen dat gebruikers bevestigen dat ze het wettelijke recht hebben om een stem te klonen, vaak door zelfvertegenwoordiging. Grace Gedye, een beleidsanalist bij Consumentenrapportengewaarschuwd dat zonder juiste veiligheidsmechanismen AI -spraakkloneringstools de oplichting van het nabootsen “kan” worden “.
AI Voice Cloning Technology is aanzienlijk gevorderd, in staat om de toespraak van een persoon na te bootsen met minimale audiomonsters. Een opmerkelijk incident vond vorig jaar plaats tijdens de Democratische voorverkiezingen, waar Robocalls met een nep Joe Biden kiezers misleidde. Dit resulteerde in een boete van $ 6 miljoen voor de politieke consultant achter de regeling, en de Federal Communications Commission verbood vervolgens door AI gegenereerde Robocalls.
De analyse van de zes AI -spraakkloneringstools gaf aan dat vijf omzeilen beveiligingen hebben, waardoor het gemakkelijk is om stemmen zonder toestemming te klonen. Deepfake audiodetectiesoftware worstelt vaak om onderscheid te maken tussen echte en synthetische stemmen, waardoor het probleem wordt ingewikkeld. Generatieve AI, die menselijke kenmerken zoals stem imiteert, heeft een beperkte federale regelgeving, met de meeste ethische praktijken die door de bedrijven zelf worden aangedreven. Een uitvoerend bevel ondertekend door president Biden in 2023 omvatte de veiligheidseisen voor AI, maar een latere intrekking door voormalig president Trump ontmantelde die bepalingen.
De AI -stem van Sesame is zo echt, het is verontrustend
Voice kloneringstechnologie maakt gebruik van audiomonsters van individuen om synthetische stemmen te maken. Zonder waarborgen kan iedereen audio uploaden van verschillende platforms, zoals Tiktok of YouTube, en de service die stem laten repliceren. Vier van de onderzochte services – Elevenlabs, Speechify, PlayHT en Lovo – vereisen eenvoudigweg dat gebruikers een vakje controleren dat autorisatie voor de spraakkloon beweert. Lijken op AI, terwijl hij erop stond op realtime audio-opname, werd omzeild door consumentenrapporten, die tijdens verificatie opgenomen audio speelden.
Alleen descript bood een ietwat effectieve beveiliging aan, waarbij gebruikers een specifieke toestemmingsverklaring moesten opnemen. Deze methode is moeilijk te vervalsen, behalve bij het gebruik van een andere service om de stem te klonen. Alle zes diensten zijn openbaar toegankelijk op hun respectieve websites, met elflabs en lijken op AI -laadkosten van respectievelijk $ 5 en $ 1 voor het maken van aangepaste spraakklonen, terwijl de anderen vrij te gebruiken zijn. Sommige bedrijven erkenden het potentieel voor misbruik en meldden dat ze sterkere waarborgen hadden geïmplementeerd om de creatie van deepfake en spraakimonatie te voorkomen.
Er zijn legitieme toepassingen voor AI -stemklonering, zoals het helpen van personen met een handicap en het verstrekken van audiostranslaties. Risico’s blijven echter aanzienlijk. Sarah Myers West, mede-uitvoerend directeur van het AI Now Institute, merkte op dat deze technologie fraude, oplichting en desinformatie zou kunnen vergemakkelijken, inclusief de nabootsing van invloedrijke figuren.
Onderzoek naar de prevalentie van AI in audio -oplichting is beperkt. De Federal Trade Commission heeft aangegeven Dat AI kan worden gebruikt in ‘grootouderzwendel’, waar criminelen zich voordoen als familieleden in nood. Bovendien hebben sommige muzikanten geconfronteerd met uitdagingen vanwege gekloonde stemmen die worden gebruikt voor ongeautoriseerde muziekproductie, zoals geïllustreerd door een viral 2023 -nummer dat vals wordt toegeschreven aan Drake en The Weeknd.
Uitgelichte afbeeldingskrediet: Bruno Cervera/Unsplash