Google heeft dinsdag zijn ethische richtlijnen bijgewerkt en zijn verplichtingen verwijderd om geen kunstmatige intelligentie (AI) -technologie toe te passen op wapens of toezicht. De vorige versie van de AI -principes van het bedrijf omvatte verboden over het nastreven van technologieën die waarschijnlijk algemene schade zullen veroorzaken, inclusief die welke worden gebruikt voor wapens en surveillance.
Google herzien AI -richtlijnen en opent de deur naar militaire toepassingen
In een Blogbericht Door Demis Hassabis, het hoofd van Google van AI en James Manyika, senior vice president voor technologie en samenleving, legden de leidinggevenden uit dat de groei in AI -technologie aanpassingen aan de principes nodig had. Ze benadrukten het belang van toonaangevende democratische landen in de ontwikkeling van AI en de noodzaak om klanten van de overheid en nationale veiligheid te dienen. “Wij geloven dat democratieën moeten leiden in AI -ontwikkeling, geleid door kernwaarden zoals vrijheid, gelijkheid en respect voor de mensenrechten,” verklaarden ze. Bovendien pleitten ze voor samenwerking tussen bedrijven en overheden die deze waarden delen om AI te creëren die mensen beschermt en de nationale veiligheid ondersteunt.
De herziene AI -principes omvatten nu elementen van menselijk toezicht en feedbackmechanismen om de naleving van het internationale recht en de mensenrechtennormen te waarborgen. Ze benadrukken ook een toewijding om technologie te testen om onbedoelde schadelijke effecten te verminderen.
Nvidia waarschuwt: nieuwe AI -chipregels kunnen de Amerikaanse voorsprong in technologie schaden
Deze verandering staat in contrast met de eerdere houding van Google, waardoor het een uitbijter had gemaakt onder grote AI -ontwikkelaars. Bedrijven zoals Openai en Anthropic hebben gevestigd Partnerschappen met militaire bedrijven om deel te nemen aan defensietechnologie, terwijl Google eerder had gekozen voor soortgelijke inspanningen als gevolg van protesten van werknemers. Google introduceerde aanvankelijk zijn AI -principes in 2018 na personeelsstand over zijn betrokkenheid bij het project Maven van het Pentagon.
In een bredere context wordt de relatie tussen de Amerikaanse technologiesector en het ministerie van Defensie aanscherping, waarbij AI steeds belangrijker is voor militaire operaties. Michael Horowitz, professor politieke wetenschappen aan de Universiteit van Pennsylvania, merkte op dat het verstandig is voor Google om zijn beleid bij te werken om dit evoluerende landschap weer te geven. Tegelijkertijd suggereerde Lilly Irani, een professor aan de Universiteit van Californië, San Diego, dat de uitvoerende verklaringen lopende patronen weerspiegelen die in de loop van de tijd zijn ontstaan.
Voormalig Google CEO Eric Schmidt heeft eerder zijn bezorgdheid geuit over het feit dat de Verenigde Staten door China in AI zijn overtroffen, wat de geopolitieke dynamiek rond AI -ontwikkeling benadrukt. De recente update komt te midden van spanningen, naarmate de technologische rivaliteit van de VS-China intensiveert. Na de aankondiging van nieuwe tarieven van de Trump -administratie, heeft Beijing een antitrustonderzoek in Google gestart.
Interne protesten met betrekking tot de cloud computing -contracten van Google met Israël hebben ethische zorgen onder werknemers geleid, onder verwijzing naar mogelijke implicaties voor de Palestijnse bevolking. Uit rapporten blijkt dat Google het Israëlische ministerie van Defensie heeft verleend, verhoogde de toegang tot zijn AI -tools na de aanvallen van Hamas op 7 oktober 2023.
Uitgelichte afbeeldingskrediet: Kerem gülen/ideogram