Volgens een recent onderzoek onder meer dan 10.000 deelnemers kan het vertrouwen op grote taalmodellen (LLM’s) om informatie samen te vatten de kennisverwerving verminderen. Marketingprofessoren Jin Ho Yun en Shiri Melumad schreven samen een artikel waarin deze bevinding in zeven onderzoeken werd beschreven. Deelnemers kregen de opdracht een onderwerp, zoals moestuinieren, te leren via een LLM zoals ChatGPT of een standaard Google-zoekopdracht. Onderzoekers legden geen beperkingen op aan de duur van het gebruik van de tool of de interactie voor deelnemers. Deelnemers schreven vervolgens advies voor een vriend op basis van hun geleerde informatie. Uit gegevens bleek consistent dat degenen die LLM’s gebruikten voor het leren, het gevoel hadden dat ze minder leerden en minder moeite investeerden in het creëren van advies. Hun advies was korter, minder feitelijk en algemener. Een onafhankelijke steekproef van lezers vond het van de LLM afgeleide advies minder informatief, minder nuttig en was minder geneigd het over te nemen. Deze verschillen bleven bestaan in verschillende contexten. Eén experiment controleerde op mogelijke variaties in informatie-eclecticisme door deelnemers bloot te stellen aan identieke feiten uit zowel Google- als ChatGPT-zoekopdrachten. Een ander experiment hield het zoekplatform constant – Google – terwijl het varieerde of deelnemers leerden van standaard Google-resultaten of van de AI-overzichtsfunctie van Google. Zelfs als de feiten en het platform gestandaardiseerd waren, resulteerde het leren van gesynthetiseerde LLM-reacties in oppervlakkigere kennis vergeleken met het verzamelen, interpreteren en synthetiseren van informatie via standaard weblinks. De studie schrijft dit verminderde leervermogen toe aan een verminderde actieve betrokkenheid. Google-zoekopdrachten brengen meer ‘wrijving’ met zich mee, waardoor navigatie, lezen, interpretatie en synthese van verschillende weblinks nodig is, wat een diepere mentale representatie bevordert. LLM’s voeren dit proces uit voor de gebruiker, waardoor het leren van actief naar passief wordt verschoven. Onderzoekers pleiten niet voor het vermijden van LLM’s, gezien hun voordelen in andere contexten. In plaats daarvan suggereren ze dat gebruikers strategischer worden door te begrijpen waar LLM’s gunstig of schadelijk zijn voor hun doelen. Voor snelle, feitelijke antwoorden zijn LLM’s geschikt. Voor het ontwikkelen van diepgaande, generaliseerbare kennis is het echter minder effectief om uitsluitend op LLM-syntheses te vertrouwen. Verdere experimenten omvatten een gespecialiseerd GPT-model dat naast gesynthetiseerde antwoorden ook realtime weblinks biedt. Deelnemers die een LLM-samenvatting ontvingen, waren niet gemotiveerd om originele bronnen te verkennen, wat leidde tot oppervlakkigere kennis vergeleken met degenen die standaard Google gebruikten. Toekomstig onderzoek zal zich richten op generatieve AI-tools die ‘gezonde fricties’ introduceren om actief leren aan te moedigen dat verder gaat dan gemakkelijk te synthetiseren antwoorden, vooral in het secundair onderwijs. Dit artikel is opnieuw gepubliceerd van Het gesprek.





