Ongeveer 200 werknemers bij Google DeepMind, de AI-onderzoeksafdeling van Google, hebben alarm geslagen over de militaire contracten van het bedrijf. Volgens Tijd, Ze hebben Google gevraagd om te stoppen met de samenwerking met militaire organisaties, omdat ze van mening zijn dat dit gebruik van hun technologie in strijd is met de ethische regels van Google voor AI.
Nog even ter herinnering: Toen Google in 2014 DeepMind overnam, werd het lab beloofde dat zijn AI-technologie niet voor militaire of bewakingsdoeleinden zou worden gebruikt. DeepMind opereerde jarenlang enigszins onafhankelijk. Maar naarmate de AI-concurrentie toenam, werd DeepMind meer geïntegreerd met Google. In 2023 fuseerde het met Google Brain, waardoor het dichter bij de hoofdactiviteiten van Google kwam.
De controversiële contracten: Project Nimbus en meer
Het probleem draait om de clouddiensten van Google, waaronder AI ontwikkeld door DeepMind, die zijn verkocht aan overheden en legers. Het meest controversiële contract is Project Nimbus, een deal met de Israëlische overheid. Dit contract is bekritiseerd omdat het het Israëlische leger ondersteunt, dat betrokken is bij operaties in Gaza.
Medewerkers van DeepMind maken zich zorgen dat samenwerken met militaire organisaties in strijd is met de AI-principes van Google. Deze principes moeten ervoor zorgen dat AI ethisch en verantwoord wordt gebruikt. Ze stellen dat AI geen schade mag veroorzaken of mag worden gebruikt voor wapens of bewaking die de mensenrechten schenden.
De brief van de werknemers
Op 16 mei 2024 stuurden de werknemers een brief waarin ze hun zorgen uitten. In de brief staat dat het weliswaar niet specifiek gericht is op conflicten of regeringen, maar dat het zich zorgen maakt over het gebruik van AI in het leger instellingen. Het betoogt dat dergelijke betrokkenheid DeepMind’s toewijding aan ethische AI schaadt.
In de brief worden drie hoofdacties gevraagd:
- Onderzoek: Ontdek hoe de technologie van DeepMind wordt gebruikt door militaire organisaties.
- Beëindiging: Stop de toegang tot DeepMind-technologie voor militaire klanten.
- Bestuur: Richt een nieuw orgaan op om toekomstig militair gebruik van DeepMind’s technologie te voorkomen.
Bedrijfsreactie en frustraties
Google reageerde door te zeggen dat het zijn AI Principles volgt en dat Project Nimbus het leveren van clouddiensten aan Israëlische overheidsministeries omvat, niet rechtstreeks aan het leger. Google beweert dat deze diensten niet bedoeld zijn voor gevoelige militaire of geclassificeerde doeleinden.
De ondertekenaars van de brief stellen echter dat de reactie van Google onduidelijk is en niet ingaat op hun zorgen over het ondersteunen van bewaking en geweld via zijn technologie.
Werknemers zijn gefrustreerd omdat Google geen actie onderneemt naar aanleiding van hun brief. Ze vinden dat het management hun zorgen niet effectief heeft aangepakt.
Tijdens een townhall meeting in juni verzekerde DeepMind’s Chief Operating Officer, Lila Ibrahim, werknemers dat DeepMind geen AI zou ontwikkelen voor wapens of massasurveillance. Ze benadrukte Google’s toewijding aan verantwoorde AI, wat volgens haar de reden was dat ze bij het bedrijf kwam en bleef.
Deze situatie bij Google DeepMind weerspiegelt een groter debat in de tech-industrie over het gebruik van geavanceerde technologieën in militaire toepassingen. Naarmate AI-technologie zich blijft ontwikkelen, staan bedrijven als Google voor de uitdaging om zakelijke belangen in evenwicht te brengen met ethische verantwoordelijkheden. De uitkomst van dit geschil zou belangrijke richtlijnen kunnen bepalen voor hoe AI in de toekomst wordt ontwikkeld en gebruikt.