Een onderzoek onder leiders van cybersecurity toont aan dat 62 procent AI-aangedreven aanvallen op personeel in het afgelopen jaar meldde. Deze incidenten, met betrekking tot snelle injectie en deepfake audio of video, hebben aanzienlijke onderbrekingen veroorzaakt, waaronder financiële en intellectuele eigendomsverliezen. De meest voorkomende aanvalsvector was Deepfake Audio -oproepen gericht op werknemers, waarbij 44 procent van de bedrijven ten minste één incident rapporteerde. Zes procent van deze gebeurtenissen leidde tot bedrijfsonderbreking, financieel verlies of verlies van intellectueel eigendom. De gegevens gaven aan dat de implementatie van een service van een audioscherming correleerde met een verlaging van deze verliespercentages tot twee procent. Incidenten met video -diepten werden gemeld door 36 procent van de onderzochte organisaties. Onder deze gevallen werd vijf procent geclassificeerd als een ernstig probleem voor het bedrijf. Dit vertegenwoordigt een aanhoudende, hoewel minder frequente, bedreiging in vergelijking met audio -imitatiepogingen. Chester Wisniewski, Global Field Ciso bij beveiligingsbedrijf Sophos, legde uit dat Deepfake Audio zeer overtuigend en goedkoop wordt. “Met audio kun je deze oproepen op dit moment in realtime genereren,” zei hij, en merkte op dat het een collega kan misleiden waarmee je af en toe interageert. Wisniewski gelooft dat de cijfers van de audio deepfake het probleem kunnen onderschatten, en hij vond de videocijfers hoger dan verwacht, aangezien een realtime video-nep van een specifieke persoon miljoenen dollars kan kosten om te produceren. Sophos heeft tactieken waargenomen waarbij een oplichter kort een CEO of CFO-video Deepfake gebruikt op een WhatsApp-oproep voordat hij connectiviteitsproblemen claimt, de feed verwijdert en overschakelen naar tekst om een sociaal-engineering-aanval voort te zetten. Generieke videosnepels worden ook gebruikt om een identiteit te verbergen in plaats van er een te stelen. Er is gemeld dat Noord -Korea miljoenen verdient door zijn personeel te laten overtuigende AI Fakery om werk te krijgen bij westerse bedrijven. Een andere stijgende dreiging is de promptinjectie-aanval, waarbij kwaadaardige instructies worden ingebed in inhoud die door een AI-systeem wordt verwerkt. Dit kan de AI misleiden om gevoelige informatie of misbruik van tools te onthullen, wat mogelijk leidt tot code -uitvoering als integraties dit toestaan. Volgens een Gartner -enquête rapporteerde 32 procent van de respondenten dergelijke aanvallen op hun aanvragen. Recente voorbeelden illustreren deze kwetsbaarheden. Onderzoekers hebben aangetoond dat Google’s Gemini-chatbot wordt gebruikt om zich te richten op de e-mail- en smart-home-systemen van een gebruiker. Het Claude -taalmodel van Anthropic heeft ook problemen ondervonden met snelle injectie. In ander onderzoek werd Chatgpt met succes opgedrongen in het oplossen van CAPTCHA’s, die zijn ontworpen om gebruikers van mens en machinaal te onderscheiden, en om verkeer te genereren dat kan worden gebruikt voor aanslagen in een weigeringsstijl op websites.





