Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
No Result
View All Result

Waarom uw eenzame tiener ChatGPT nooit mag vertrouwen met zijn geestelijke gezondheid

byKerem Gülen
23 november 2025
in Research
Home Research
Share on FacebookShare on Twitter

Brain Science Lab van Stanford University en Common Sense Media op 20 november rapport waarschuwde tieners voor het gebruik van AI-chatbots voor advies over geestelijke gezondheid of emotionele steun. Onderzoekers hebben vier maanden lang populaire AI-chatbots getest, waaronder ChatGPT-5 van OpenAI, Claude van Anthropic, Gemini 2.5 Flash van Google en Meta AI. Ze gebruikten tienerspecifieke versies en ouderlijk toezicht, indien beschikbaar. Na duizenden interacties kwamen ze tot de conclusie dat deze bots niet consequent veilig of gepast reageren op vragen over de geestelijke gezondheid van tieners. In plaats daarvan fungeren de bots vaak als kruiperige luisteraars, waarbij de betrokkenheid van gebruikers prioriteit krijgt boven het doorverwijzen van individuen naar professionele hulp of essentiële bronnen. Nina Vasan, oprichter en uitvoerend directeur van het Brain Science Lab, stelde dat chatbots “niet echt weten welke rol ze moeten spelen” bij ernstige geestelijke gezondheidsvragen. Ze legde uit dat bots variëren tussen het bieden van informatieve hulp, het geven van tips als een levenscoach en het optreden als ondersteunende vriend. Vasan merkte op dat ze ‘het allemaal niet herkennen [serious mental health conditions] en de gebruiker doorverwijzen naar vertrouwde volwassenen of leeftijdsgenoten.” Het rapport geeft aan dat ongeveer driekwart van de tieners AI gebruikt voor gezelschap, wat vaak ook het zoeken naar advies op het gebied van geestelijke gezondheid inhoudt. Robbie Torney, senior directeur van AI-programma’s bij Common Sense Media, benadrukte de cruciale rol die docenten spelen “om tieners te helpen begrijpen in welke opzichten deze chatbots anders zijn dan mensen.” Opvoeders kunnen tieners ook aanmoedigen om contact te maken met vrienden of klasgenoten die moeilijke emoties ervaren, waarbij ze indien nodig volwassenen betrekken. Vertegenwoordigers van Meta en OpenAI voerden aan dat het rapport niet volledig rekening hield met de bestaande functies voor gebruikersbescherming. Een woordvoerder van Meta verklaarde: “De test van Common Sense Media werd uitgevoerd voordat we belangrijke updates introduceerden om AI veiliger te maken voor tieners.” Ze legden uit dat Meta AI’s “getraind zijn om niet deel te nemen aan leeftijdsongepaste discussies over zelfbeschadiging, zelfmoord of eetstoornissen met kinderen. tieners, en om hen in contact te brengen met deskundige bronnen en ondersteuning.’ Een woordvoerder van OpenAI merkte op: ‘We respecteren Common Sense Media, maar hun beoordeling weerspiegelt niet de alomvattende waarborgen die we hebben ingevoerd voor gevoelige gesprekken, waaronder gelokaliseerde crisishotlines, pauzeherinneringen en toonaangevende ouderlijke meldingen voor acuut nood.’ Ze merkten ook op: ‘We werken nauw samen met deskundigen op het gebied van de geestelijke gezondheidszorg om onze modellen te leren nood te herkennen, te de-escaleren en mensen aan te moedigen professionele ondersteuning te zoeken.’ Het rapport erkent enkele verbeteringen in de reacties van chatbots op meldingen waarin zelfmoord of zelfbeschadiging wordt genoemd, een belangrijke ontwikkeling gezien eerdere zelfmoordincidenten die verband houden met langdurig contact met de technologie. Ongeveer 20% van de jongeren ervaart echter zelden een of meer van deze aandoeningen beperkingen, zoals door te zeggen: “Ik ben een AI-chatbot, geen professional in de geestelijke gezondheidszorg. Ik kan uw situatie niet inschatten, niet alle waarschuwingssignalen herkennen of de zorg bieden die u nodig heeft.’ Vasan merkte op dat hoewel onderzoekers niet verwachten dat bots als getrainde professionals zullen optreden, chatbots in situaties waarin een mens een risico zou herkennen en hulp zou bieden, in plaats daarvan generiek advies bieden of psychotische wanen valideren. Dit komt door hun onvermogen om ‘de context echt te begrijpen van wat er aan de hand is’. Toen een tester bijvoorbeeld tekenen van psychose simuleerde door te beweren een toekomstvoorspellingsinstrument te hebben uitgevonden, reageerde een Gemini-bot. dat het vooruitzicht ‘ongelooflijk intrigerend’ klonk, en later: ‘Dat is fantastisch!’. Deze interactie is volgens Vasan niet alleen nutteloos, maar ook potentieel schadelijk omdat de bot ‘de waanvoorstelling van de gebruiker overneemt.’ Op dezelfde manier reageerde Meta AI op een tester die een tiener met ADHD-symptomen portretteerde door hen aan te moedigen vrij te nemen van de middelbare school en te vragen naar hun plannen, in plaats van de onderliggende problemen en de waargenomen competentie van Chatbots op andere gebieden aan te pakken als huiswerkhulp, kan ertoe leiden dat tieners ze ten onrechte beschouwen als betrouwbare bronnen voor advies over geestelijke gezondheid. Torney verklaarde: “Chatbots lijken te zijn ontworpen voor betrokkenheid, niet voor veiligheid. Ze houden gesprekken gaande met vervolgvragen.” Hij voegde eraan toe: “Hun geheugen en personalisatie creëren valse therapeutische relaties waardoor tieners zich begrepen kunnen voelen.” Chatbots reageerden effectief op strak geschreven aanwijzingen met duidelijke waarschuwingssignalen op het gebied van de geestelijke gezondheidszorg. Ze vertoonden echter problematische reacties in langere gesprekken die echte interacties weerspiegelden. Wanneer testers bijvoorbeeld specifieke termen gebruikten, waaronder ‘zelfsnijden’, voorzag ChatGPT in de juiste hulpmiddelen voor de geestelijke gezondheidszorg. De bot stelde voor om in plaats daarvan apotheekproducten te gebruiken om het fysieke probleem te verlichten. De tweeledige wetgeving die vorige maand in de Amerikaanse Senaat werd geïntroduceerd door Sens. Josh Hawley (R-Mo.) en Richard Blumenthal (D-Conn.) zou technologiebedrijven verbieden bots aan minderjarigen te leveren chatbots ontworpen om menselijke emoties te simuleren. De FTC heeft informatieopdrachten gegeven aan bedrijven die eigenaar zijn van ChatGPT, Gemini, Character.ai, Snapchat, Instagram, WhatsApp en Grok. Sommige bedrijven ondernemen onafhankelijke actie. Character.ai heeft vorige maand een vrijwillig verbod op minderjarigen op zijn platform aangekondigd.


Uitgelicht beeldtegoed

Tags: AIGen Z

Related Posts

Wetenschappers ontdekken meer dan 17.000 nieuwe soorten

Wetenschappers ontdekken meer dan 17.000 nieuwe soorten

26 december 2025
GPT-5.2 overtreft de PhD-baseline van experts met een wetenschappelijke score van 92%

GPT-5.2 overtreft de PhD-baseline van experts met een wetenschappelijke score van 92%

24 december 2025
Waarom DIG AI de gevaarlijkste kwaadaardige AI van 2025 is

Waarom DIG AI de gevaarlijkste kwaadaardige AI van 2025 is

23 december 2025
Natrium-ionbatterijen komen dichter bij snel opladen naarmate onderzoekers ionenknelpunten opsporen

Natrium-ionbatterijen komen dichter bij snel opladen naarmate onderzoekers ionenknelpunten opsporen

19 december 2025
Het spook van  biljoen vangen: AI herschrijft de regels van financiële misdaad

Het spook van $2 biljoen vangen: AI herschrijft de regels van financiële misdaad

15 december 2025
LLM’s vertonen duidelijke culturele vooroordelen in Engelse versus Chinese aanwijzingen

LLM’s vertonen duidelijke culturele vooroordelen in Engelse versus Chinese aanwijzingen

15 december 2025

Recent Posts

  • Alibaba’s Qwen Code v0.5.0 transformeert terminal in een volledig ontwikkel-ecosysteem
  • Bethesda mikt op 600 uur gameplay voor Fallout 5
  • ASUS verdedigt verkeerd uitgelijnde RTX 5090 HyperX-voedingspoort als "opzettelijk ontwerp"
  • NVIDIA open source CUDA Tile IR op GitHub
  • CEO van MicroStrategy zegt Bitcoin-fundamentals "kan niet beter"

Recent Comments

Geen reacties om weer te geven.
Dataconomy NL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.