Volgens De randGoogle is begonnen met het uitrollen van realtime scherm- en camera-analysefuncties voor Gemini Livenu beschikbaar om Google One AI Premium -abonnees te selecteren. De update, aangedreven door Project Astra van vorig jaar, stelt de AI in staat om visuele inputs te interpreteren en vragen te beantwoorden, bevestigde een woordvoerder van het bedrijf.
A Reddit Gebruiker demonstreerde Gemini’s schermleesmogelijkheden op een Xiaomi-apparaat deze week, delen Een video van de AI die APP -pictogrammen identificeert en inhoud samenvat. 9to5google zag eerst de post, die aansluit bij de mars van Google aankondiging dat deze functies tegen het einde van de maand zouden lanceren.
In een door het bedrijf gepubliceerde voorbeeld wijst een gebruiker zijn telefooncamera op een aardewerkstuk en vraagt Gemini om verfkleuren voor te stellen. De AI analyseert de glazuurtextuur en het oppervlak voordat de opties worden aanbevolen.
De uitrol geeft Google een voorsprong terwijl rivalen klauteren: Amazon’s Alexa Plus voert binnenkort een beperkte testen in, Apple heeft zijn Siri -revisie uitgesteld en Samsung – ondanks het handhaven van Bixby – Defaults to Gemini op zijn apparaten. Allemaal willen Astra’s realtime visuele verwerking overeenkomen, die Google bijna een jaar na de eerste demo heeft ingezet.
Uitgelichte afbeeldingskrediet: Google