De chatgpt-5 van Openai is begonnen met het reageren met “Ik weet het niet” wanneer het geen vertrouwen kan beantwoorden, een belangrijke verandering van het typische chatbotgedrag van het geven van een antwoord, ongeacht de betrouwbaarheid ervan. De nieuwe functie, die aandacht kreeg nadat gebruikers interacties op sociale media hebben gedeeld, maakt deel uit van een poging om het langdurige probleem van door AI gegenereerde verkeerde informatie aan te pakken.
Het probleem van AI -hallucinaties aanpakken
Een aanhoudende uitdaging voor grote taalmodellen is de kwestie van ‘hallucinaties’, waarbij de AI gefabriceerde informatie genereert, zoals nepcitaten of niet-bestaande studies, op een zelfverzekerde toon. Dit is met name gevaarlijk op gebieden zoals geneeskunde of rechten, waarbij gebruikers kunnen handelen op onjuiste informatie zonder te beseffen dat deze onbetrouwbaar is. Gebruikers accepteren deze uitgangen vaak tegen de nominale waarde omdat de gezaghebbende levering van de AI de gefabriceerde details maskeert. De nieuwe aanpak van Chatgpt-5 gaat dit rechtstreeks tegen door te kiezen voor eerlijkheid boven uitvinding. Wanneer het model een vraag tegenkomt die buiten zijn trainingsgegevens valt of niet -verifieerbare claims met zich meebrengt, zal het nu zijn onzekerheid vermelden in plaats van een speculatief of onjuist antwoord te genereren.
Hoe de functie “I Don’t Know” werkt
Grote taalmodellen zoals Chatgpt halen geen feiten uit een database op. In plaats daarvan werken ze door het volgende woord te voorspellen in een reeks op basis van statistische patronen die zijn geleerd uit enorme hoeveelheden tekst. Deze methode zorgt voor een vloeiend, menselijk gesprek, maar kan ook leiden tot plausibel klinkende onnauwkeurigheden wanneer de trainingsgegevens beperkt zijn over een specifiek onderwerp. OpenAI heeft een betrouwbaarheidsdrempel geïmplementeerd in ChatGPT-5. Wanneer de voorspelling van het model voor een antwoord onder een bepaalde betrouwbaarheidsscore valt, veroorzaakt het de reactie “Ik weet het niet”. Dit mechanisme voorkomt dat het model een grammaticaal correct maar feitelijk ongegrond antwoord levert. Ontwikkelaars kalibreerden deze drempels door uitgebreide testen om een evenwicht te vinden tussen nuttige informatie met het handhaven van nauwkeurigheid.
Gebruikersvertrouwen opbouwen door beperkingen te communiceren
De nieuwe functie is ontworpen om het vertrouwen van gebruikers op te bouwen door de beperkingen van de AI duidelijk te maken. Door expliciet te markeren wanneer het onzeker is, moedigt CHATGPT-5 gebruikers aan om externe verificatie te zoeken en de tool kritischer te gebruiken. Dit bevordert een meer verantwoordelijke interactie en positioneert de AI als een nuttige assistent in plaats van een onfeilbare informatiebron. Deze stap in de richting van een grotere transparantie komt overeen met een bredere trend in de branche, zoals andere bedrijven zoals Google’s Gemini En Anthropic’s Claude Onderzoekt ook manieren om soortgelijke waarborgen in hun AI -modellen te bouwen. De toelating van onzekerheid weerspiegelt hoe menselijke experts werken, die vaak de grenzen van hun kennis erkennen en andere bronnen raadplegen. De functie vertegenwoordigt een stap in de richting van meer genuanceerde en verantwoordelijke AI -systemen die hun grenzen effectief kunnen communiceren.





