Google gepubliceerd Een technisch rapport over zijn nieuwste AI -model, Gemini 2.5 Pro, weken na de lancering, maar experts zeggen dat het rapport geen belangrijke veiligheidsdetails heeft, waardoor het moeilijk is om de risico’s van het model te beoordelen.
Het rapport maakt deel uit van de inspanningen van Google om transparantie te bieden over zijn AI -modellen, maar het verschilt van zijn rivalen omdat het alleen technische rapporten publiceert voor modellen die het overweegt om verder te gaan dan het experimentele stadium. Google reserveert ook enkele bevindingen van veiligheidsevaluatie voor een afzonderlijke audit.
Experts, waaronder Peter Wildeford, mede-oprichter van het Institute for AI-beleid en strategie, en Thomas Woodside, mede-oprichter van het Secure AI-project, uitgedrukt Teleurstelling over de spaarzaamheid van het rapport en merkt op dat het Google’s Frontier Safety Framework niet vermeldt (FSF), vorig jaar geïntroduceerd om potentiële AI -risico’s te identificeren.
Wildeford zei dat de minimale informatie van het rapport, vrijgegeven weken na de openbare lancering van het model, het onmogelijk maakt om de publieke verplichtingen van Google aan veiligheid en beveiliging te verifiëren. Woodside twijfelde ook aan de toewijding van Google aan tijdige veiligheidsevaluaties, en wees erop dat het laatste rapport van het bedrijf over gevaarlijke capaciteitstests in juni 2024 was, voor een model dat in februari 2024 werd aangekondigd.
Bovendien heeft Google geen rapport vrijgegeven voor Gemini 2.5 Flash, een kleiner model dat vorige week werd aangekondigd, hoewel een woordvoerder zei dat er een ‘binnenkort’ komt. Thomas Woodside hoopt dat dit aangeeft dat Google zal beginnen met het publiceren van vaker updates, inclusief evaluaties voor nog niet publiekelijke modellen.
Rechterregels Google bezit illegaal advertentiemonopolie
Andere AI -laboratoria, zoals Meta en Openai, hebben ook kritiek gekregen vanwege het ontbreken van transparantie in hun veiligheidsevaluaties. Kevin Bankston, een senior adviseur voor AI -bestuur bij het Center for Democracy and Technology, beschreef de trend van sporadische en vage rapporten als een “race naar de bodem” op AI -veiligheid.
Google heeft verklaard dat het veiligheidstests en “tegenstanders rode teaming” uitvoert voor zijn modellen vóór release, zelfs als het niet wordt gedetailleerd in zijn technische rapporten.