Google heeft een nieuwe belangrijke stap gezet in de race om de nauwkeurigheid en betrouwbaarheid van AI-modellen te verbeteren met de invoering van DataGemma, een innovatieve aanpak die zijn Gemma large language models (LLMs) en het Data Commons-project combineert. De schijnwerper hier is gericht op een techniek genaamd ophaalversterkte generatie (RAG)een methode die steeds populairder wordt in ondernemingen, maar nu wil Google deze met DataGemma mainstream maken voor AI.
In de kern probeert RAG een van de grootste uitdagingen voor LLM’s op te lossen: het probleem van hallucinaties. In de wereld van generatieve AI verwijzen hallucinaties naar gevallen waarin het model informatie genereert die plausibel klinkt, maar feitelijk onjuist is. Dit is een veelvoorkomend probleem in AI-systemen, vooral wanneer ze geen betrouwbare basis in feitelijke gegevens hebben. Het doel van Google met DataGemma is om “de kennis van Data Commons te benutten om de feitelijkheid en redenering van LLM’s te verbeteren”, door dit probleem rechtstreeks aan te pakken.
Wat is RAG?
Retrieval-augmented generation is een game changer omdat het niet alleen vertrouwt op vooraf getrainde AI-modellen om antwoorden te genereren. In plaats daarvan haalt het relevante gegevens op uit een externe bron voordat het een antwoord genereert. Deze aanpak stelt AI in staat om nauwkeurigere en contextueel relevantere antwoorden te geven door echte gegevens uit repositories te halen. In het geval van DataGemma is de bron van deze gegevens Het Data Commons-project van Googleeen openbare bron die statistische gegevens van gerenommeerde instellingen zoals de Verenigde Naties verzamelt.
Deze stap van Google om Data Commons te integreren met zijn generatieve AI-modellen vertegenwoordigt de eerste grootschalige cloud-gebaseerde implementatie van RAG. Hoewel veel ondernemingen RAG hebben gebruikt om hun AI-modellen te baseren op propriëtaire data, tilt het gebruik van een publieke databron als Data Commons de zaken naar een heel nieuw niveau. Het geeft aan dat Google van plan is om verifieerbare, hoogwaardige data te gebruiken om AI betrouwbaarder en nuttiger te maken in een breed scala aan toepassingen.
De tweeledige aanpak van Google
Volgens Google, DataGemma hanteert “twee verschillende benaderingen” om data retrieval te integreren met LLM output. De eerste methode heet ophaal-interleaved generatie (RIG). Met RIG haalt de AI specifieke statistische gegevens op om vragen die in de queryprompt worden gesteld, te controleren. Als een gebruiker bijvoorbeeld vraagt: “Is het gebruik van hernieuwbare energiebronnen in de wereld toegenomen?”, kan het systeem actuele statistieken uit Data Commons halen en deze rechtstreeks in het antwoord citeren. Dit verbetert niet alleen de feitelijke nauwkeurigheid van het antwoord, maar biedt gebruikers ook concrete bronnen voor de informatie.
De tweede methode is meer in lijn met de traditionele RAG-benadering. Hierbij haalt het model data op om uitgebreidere en gedetailleerdere antwoorden te genereren, waarbij de bronnen van de data worden genoemd om een vollediger beeld te creëren. “DataGemma haalt relevante contextuele informatie op uit Data Commons voordat het model de responsgeneratie start,” Google stelt. Dit zorgt ervoor dat de AI alle benodigde feiten bij de hand heeft voordat het een antwoord begint te genereren, wat de kans op hallucinaties aanzienlijk verkleint.
Een belangrijk kenmerk van DataGemma is het gebruik van Google’s Gemini 1.5-modeldie een indrukwekkende contextvenster van maximaal 128.000 tokens. In AI-termen verwijst het contextvenster naar hoeveel informatie het model in het geheugen kan bewaren tijdens het verwerken van een query. Hoe groter het venster, hoe meer gegevens het model in aanmerking kan nemen bij het genereren van een respons. Gemini 1.5 kan zelfs opschalen naar een verbluffende 1 miljoen tokenswaardoor het enorme hoeveelheden gegevens uit Data Commons kan halen en deze kan gebruiken om gedetailleerde, genuanceerde antwoorden te formuleren.
Dit uitgebreide contextvenster is cruciaal omdat het DataGemma in staat stelt om “het risico op hallucinaties minimaliseren en de nauwkeurigheid van de reacties verbeteren,” volgens Google. Door meer relevante informatie in het geheugen te bewaren, kan het model zijn eigen output kruislings controleren met echte data, en ervoor zorgen dat de antwoorden die het geeft niet alleen relevant zijn, maar ook feitelijk gefundeerd.
Verder dan LLM’s
Hoewel de integratie van RAG-technieken op zichzelf al spannend is, DataGemma vertegenwoordigt ook een bredere verschuiving in het AI-landschap. Het gaat niet langer alleen om grote taalmodellen die tekst genereren of vragen beantwoorden op basis van waar ze op getraind zijn. De toekomst van AI ligt in het vermogen om integreren met realtime gegevensbronnenzodat de uitkomsten zo nauwkeurig en actueel mogelijk zijn.
Google is niet de enige die dit nastreeft. Nog maar vorige week, OpenAI onthuld zijn Project “Aardbei”die een andere aanpak hanteert om AI-redeneringen te verbeteren. Strawberry gebruikt een methode die bekend staat als “gedachtenketen”waarbij de AI de stappen of factoren beschrijft die het gebruikt om tot een voorspelling of conclusie te komen. Hoewel het anders is dan RAG, is het doel vergelijkbaar: AI transparanter, betrouwbaarder en nuttiger maken door inzicht te bieden in de redenering achter de antwoorden.
Wat is de volgende stap voor DataGemma?
DataGemma is voorlopig nog een work in progress. Google erkent dat er meer testen en ontwikkeling nodig zijn voordat het systeem breed beschikbaar kan worden gesteld aan het publiek. De eerste resultaten zijn echter veelbelovend. Google beweert dat zowel de RIG- als de RAG-benadering hebben geleid tot verbeteringen in de outputkwaliteit, met “minder hallucinaties voor gebruiksgevallen in onderzoek, besluitvorming of simpelweg het bevredigen van nieuwsgierigheid.”
Het is duidelijk dat Google, samen met andere toonaangevende AI-bedrijven, verder gaat dan de basismogelijkheden van grote taalmodellen. De toekomst van AI ligt in het vermogen om te integreren met externe gegevensbronnen, of het nu gaat om openbare databases zoals Data Commons of bedrijfseigen bedrijfsgegevens. Door dit te doen, kan AI verder gaan dan zijn beperkingen en een krachtiger hulpmiddel worden voor besluitvorming, onderzoek en verkenning.
Bron van de hoofdafbeelding: Google