Google heeft een beveiligingskwetsbaarheid bevestigd met een nieuwe AI-aangedreven aanval die Gmail-accounts in gevaar kan brengen. Het bedrijf merkte op dat de dreiging “niet specifiek is voor Google” en benadrukt de noodzaak van sterkere verdedigingen tegen snelle injectieaanvallen.
Hoe de snelle injectieaanval werkt
De aanval maakt gebruik van kwaadaardige instructies die verborgen zijn in schijnbaar onschadelijke items zoals e -mails, bijlagen of kalenderuitnodigingen. Hoewel deze instructies onzichtbaar zijn voor een menselijke gebruiker, kan een AI -assistent deze lezen en uitvoeren. Onderzoeker Eito Miyamura demonstreerde de kwetsbaarheid in een video die op X is geplaatst.
We hebben chatgpt om uw privé -e -mailgegevens te lekken. Alles wat je nodig hebt? Het e -mailadres van het slachtoffer. AI -agenten zoals Chatgpt volgen uw opdrachten, niet uw gezond verstand … Met alleen uw e -mail zijn we erin geslaagd al uw privé -informatie te exfiltreren.
https://twitter.com/eito_miyamura/status/1966541235306237985 De aanval kan worden geactiveerd door een speciaal vervaardigde kalenderuitnodiging die de gebruiker niet eens hoeft te accepteren. Wanneer de gebruiker zijn AI -assistent vraagt om een routinematige taak uit te voeren, zoals het controleren van zijn agenda, leest de AI het verborgen opdracht in de uitnodiging. De schadelijke opdracht instrueert vervolgens de AI om de privé -e -mails van de gebruiker te doorzoeken en de gegevens naar de aanvaller te sturen.
Hoe u uw account en het antwoord van Google kunt beschermen
Google waarschuwde eerder in juni voor dit soort bedreigingen, waarin stond dat instructies ingebed in documenten of kalenderuitnodigingen AI kunnen instrueren om “gebruikersgegevens te exfiltreren of andere malafide acties uit te voeren”. Het bedrijf implementeert nu verdedigingen en adviseert gebruikers hoe ze zichzelf kunnen beschermen.
- Schakel de instelling “Bekende afzenders” in in Google Agenda: Google stelt dat dit een effectieve manier is om te voorkomen dat kwaadaardige uitnodigingen automatisch op uw agenda verschijnen. De aanval is minder kans om te werken, tenzij de gebruiker eerder met de aanvaller heeft omgegaan of deze standaardinstelling heeft gewijzigd.
- Google traint zijn AI -modellen om deze aanvallen te weerstaan: Het bedrijf zegt dat de training met tegenstanders “onze verdedigingen tegen indirecte snelle injectieaanvallen in Gemini 2.5 -modellen aanzienlijk heeft verbeterd.”
- Nieuwe detectiemodellen worden ingezet: Google rolt eigen machine learning -modellen uit die kwaadaardige aanwijzingen kunnen detecteren en neutraliseren in e -mails en bestanden voordat ze worden uitgevoerd.
HerinnerenAI is misschien super slim, maar kan worden bedrogen en gefilmd op ongelooflijk domme manieren om uw gegevens te lekken.





