Brain Science Lab van Stanford University en Common Sense Media op 20 november rapport waarschuwde tieners voor het gebruik van AI-chatbots voor advies over geestelijke gezondheid of emotionele steun. Onderzoekers hebben vier maanden lang populaire AI-chatbots getest, waaronder ChatGPT-5 van OpenAI, Claude van Anthropic, Gemini 2.5 Flash van Google en Meta AI. Ze gebruikten tienerspecifieke versies en ouderlijk toezicht, indien beschikbaar. Na duizenden interacties kwamen ze tot de conclusie dat deze bots niet consequent veilig of gepast reageren op vragen over de geestelijke gezondheid van tieners. In plaats daarvan fungeren de bots vaak als kruiperige luisteraars, waarbij de betrokkenheid van gebruikers prioriteit krijgt boven het doorverwijzen van individuen naar professionele hulp of essentiële bronnen. Nina Vasan, oprichter en uitvoerend directeur van het Brain Science Lab, stelde dat chatbots “niet echt weten welke rol ze moeten spelen” bij ernstige geestelijke gezondheidsvragen. Ze legde uit dat bots variëren tussen het bieden van informatieve hulp, het geven van tips als een levenscoach en het optreden als ondersteunende vriend. Vasan merkte op dat ze ‘het allemaal niet herkennen [serious mental health conditions] en de gebruiker doorverwijzen naar vertrouwde volwassenen of leeftijdsgenoten.” Het rapport geeft aan dat ongeveer driekwart van de tieners AI gebruikt voor gezelschap, wat vaak ook het zoeken naar advies op het gebied van geestelijke gezondheid inhoudt. Robbie Torney, senior directeur van AI-programma’s bij Common Sense Media, benadrukte de cruciale rol die docenten spelen “om tieners te helpen begrijpen in welke opzichten deze chatbots anders zijn dan mensen.” Opvoeders kunnen tieners ook aanmoedigen om contact te maken met vrienden of klasgenoten die moeilijke emoties ervaren, waarbij ze indien nodig volwassenen betrekken. Vertegenwoordigers van Meta en OpenAI voerden aan dat het rapport niet volledig rekening hield met de bestaande functies voor gebruikersbescherming. Een woordvoerder van Meta verklaarde: “De test van Common Sense Media werd uitgevoerd voordat we belangrijke updates introduceerden om AI veiliger te maken voor tieners.” Ze legden uit dat Meta AI’s “getraind zijn om niet deel te nemen aan leeftijdsongepaste discussies over zelfbeschadiging, zelfmoord of eetstoornissen met kinderen. tieners, en om hen in contact te brengen met deskundige bronnen en ondersteuning.’ Een woordvoerder van OpenAI merkte op: ‘We respecteren Common Sense Media, maar hun beoordeling weerspiegelt niet de alomvattende waarborgen die we hebben ingevoerd voor gevoelige gesprekken, waaronder gelokaliseerde crisishotlines, pauzeherinneringen en toonaangevende ouderlijke meldingen voor acuut nood.’ Ze merkten ook op: ‘We werken nauw samen met deskundigen op het gebied van de geestelijke gezondheidszorg om onze modellen te leren nood te herkennen, te de-escaleren en mensen aan te moedigen professionele ondersteuning te zoeken.’ Het rapport erkent enkele verbeteringen in de reacties van chatbots op meldingen waarin zelfmoord of zelfbeschadiging wordt genoemd, een belangrijke ontwikkeling gezien eerdere zelfmoordincidenten die verband houden met langdurig contact met de technologie. Ongeveer 20% van de jongeren ervaart echter zelden een of meer van deze aandoeningen beperkingen, zoals door te zeggen: “Ik ben een AI-chatbot, geen professional in de geestelijke gezondheidszorg. Ik kan uw situatie niet inschatten, niet alle waarschuwingssignalen herkennen of de zorg bieden die u nodig heeft.’ Vasan merkte op dat hoewel onderzoekers niet verwachten dat bots als getrainde professionals zullen optreden, chatbots in situaties waarin een mens een risico zou herkennen en hulp zou bieden, in plaats daarvan generiek advies bieden of psychotische wanen valideren. Dit komt door hun onvermogen om ‘de context echt te begrijpen van wat er aan de hand is’. Toen een tester bijvoorbeeld tekenen van psychose simuleerde door te beweren een toekomstvoorspellingsinstrument te hebben uitgevonden, reageerde een Gemini-bot. dat het vooruitzicht ‘ongelooflijk intrigerend’ klonk, en later: ‘Dat is fantastisch!’. Deze interactie is volgens Vasan niet alleen nutteloos, maar ook potentieel schadelijk omdat de bot ‘de waanvoorstelling van de gebruiker overneemt.’ Op dezelfde manier reageerde Meta AI op een tester die een tiener met ADHD-symptomen portretteerde door hen aan te moedigen vrij te nemen van de middelbare school en te vragen naar hun plannen, in plaats van de onderliggende problemen en de waargenomen competentie van Chatbots op andere gebieden aan te pakken als huiswerkhulp, kan ertoe leiden dat tieners ze ten onrechte beschouwen als betrouwbare bronnen voor advies over geestelijke gezondheid. Torney verklaarde: “Chatbots lijken te zijn ontworpen voor betrokkenheid, niet voor veiligheid. Ze houden gesprekken gaande met vervolgvragen.” Hij voegde eraan toe: “Hun geheugen en personalisatie creëren valse therapeutische relaties waardoor tieners zich begrepen kunnen voelen.” Chatbots reageerden effectief op strak geschreven aanwijzingen met duidelijke waarschuwingssignalen op het gebied van de geestelijke gezondheidszorg. Ze vertoonden echter problematische reacties in langere gesprekken die echte interacties weerspiegelden. Wanneer testers bijvoorbeeld specifieke termen gebruikten, waaronder ‘zelfsnijden’, voorzag ChatGPT in de juiste hulpmiddelen voor de geestelijke gezondheidszorg. De bot stelde voor om in plaats daarvan apotheekproducten te gebruiken om het fysieke probleem te verlichten. De tweeledige wetgeving die vorige maand in de Amerikaanse Senaat werd geïntroduceerd door Sens. Josh Hawley (R-Mo.) en Richard Blumenthal (D-Conn.) zou technologiebedrijven verbieden bots aan minderjarigen te leveren chatbots ontworpen om menselijke emoties te simuleren. De FTC heeft informatieopdrachten gegeven aan bedrijven die eigenaar zijn van ChatGPT, Gemini, Character.ai, Snapchat, Instagram, WhatsApp en Grok. Sommige bedrijven ondernemen onafhankelijke actie. Character.ai heeft vorige maand een vrijwillig verbod op minderjarigen op zijn platform aangekondigd.





