Een alarmerend rapport van Kela Research and Strategy Ltd. Documenteert vandaag een stijging van 200% in vermeldingen van kwaadaardige kunstmatige intelligentietools op cybercriminaliteitsforums tot 2024, ter illustratie van hoe snel cybercriminelen AI -tools en tactieken aannemen. De bevindingen werden uiteengezet in Kela’s AI -dreigingsrapport uit 2025: hoe cybercriminelen AI -technologie bewapenen.
Het rapport is gebaseerd op gegevens van Kela’s eigen platform voor het verzamelen van intelligentie, dat cybercriminaliteitsactiviteit analyseert in donkere webforums, telegramkanalen en door het volgen van dreigingsacteur-gedrag.
Naast de toename van de vermeldingen van kwaadaardige AI -tools, merkt het rapport een stijging van 52% in discussies over AI -jailbreaks in het afgelopen jaar op. Van cybercriminaliteitsactoren is naar verluidt continu AI -jailbreaking -technieken verfijnen om beveiligingsbeperkingen in openbare AI -systemen te omzeilen.
De dreigingsacteurs verspreiden en verdienen zich proactief wat Kela definieert als ‘donkere AI -tools’, die jailbroken modellen en gespecialiseerde kwaadaardige toepassingen omvatten, zoals wormgpt en fraudgpt. Deze tools zijn ontworpen om cybercriminaliteitsacties uit te voeren, zoals phishing, het vormen van malware en financiële fraude – welke tools meestal op grote schaal worden uitgevoerd.
AI -systemen zijn ontworpen om veiligheidsbeperkingen te verwijderen en aangepaste functionaliteiten toe te voegen, waardoor de barrière voor onervaren aanvallers omlaag is om geavanceerde aanvallen op schaal uit te voeren.
Op het gebied van phishing merken experts op dat dreigingsacteurs generatieve AI gebruiken om sterke sociale engineering -inhoud te maken, waardoor dergelijke schema’s met deepfake audio en video worden verbeterd. Dit verbetert het vermogen van cybercriminelen om zich voor te doen als leidinggevenden en werknemers te misleiden om frauduleuze transacties goed te keuren.
Kela merkte ook op dat AI de ontwikkeling van malware heeft versneld, waardoor zeer ontwijkende ransomware en infostalers mogelijk zijn. Deze ontwikkeling levert problemen op voor traditionele detectiemethoden en respons.
“We zijn getuige van een seismische verschuiving in het landschap van de cyberdreiging,” zei Yael Kishon, AI -product en onderzoeksleider bij Kela. “Cybercriminelen gebruiken niet alleen AI-ze bouwen hele secties in het ondergrondse ecosysteem gewijd aan AI-aangedreven cybercriminaliteit.” Ze benadrukte dat “organisaties AI-gedreven verdedigingen moeten aannemen om deze groeiende dreiging te bestrijden.” Om de escalerende AI-aangedreven cyberdreigingen voor te blijven, adviseert Kela te investeren in training van werknemers.
Hackers hebben nu een toolkit voor Mass Account Breaches: het heet Atlantis Aio
Kela beveelt aan om opkomende AI-bedreigingen en -tactieken te monitoren en AI-aangedreven beveiligingsmaatregelen te implementeren, zoals geautomatiseerde op intelligentie gebaseerde rode teaming en tegenstanders voor generatieve AI-modellen.
Dit rapport maakt duidelijk dat de wapenwedloop tussen cybercrime -innovators en beveiligingsexperts genuanceerde en proactieve betrokkenheid verplicht. Als organisaties generatieve AI moeten gebruiken om generatieve AI in phishing tegen te gaan, het zij zo, maar het is verontrustend hoe overtroffen conventionele methoden zullen zijn als slechte acteurs ongecontroleerd blijven.
De alarmerende sprong in AI-gerichte online chatter onthult dat cybercriminelen niet alleen AI aannemen, maar hun AI-hackmethoden perfectioneren. Dit is nog erger dan het bewapenen van externe code, omdat de vijanden nu effectief beveiligingsmaatregelen voor reverse engineering zijn. Dit is een lang spel, maar cybercriminelen exploiteren momenteel een open doel en eisen nu actie.
De toename van het aantal jailbreak-methoden dat aanzienlijk wordt aangehaald, weegt op tegen de tegen-interventies.
Geholpen door gerichte tools met geavanceerde toepassingen op gebieden zoals deepfake -technologie en malware -ontwikkeling, voegen deze cybercriminelen nog een andere laag van complexiteit toe voor wetshandhavings- en beveiligingsbedrijven.
De waarschuwing van Kela kan niet veel langer worden genegeerd, waarbij ontwikkelaars, nu goed of slecht, zich richten op het creëren van toolkits om AI -software te exploiteren en belangrijke cybersecurity -problemen aan te pakken. Voor nu groeit het ondergrondse ecosysteem gericht op AI-aangedreven cybercriminaliteit.
Ondanks het feit dat meer van deze tactieken afhankelijk zijn van sociale engineering, investeren werknemers – die bekend zijn als de zwakste cybersecurity -link – nog steeds niet zo vaak in AI -tools als ze zouden moeten. Dit probleem zal worden geïntensiveerd wanneer bedrijfsleiders toegang moeten hebben tot dergelijke mechanismen.