Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
No Result
View All Result

Onderzoek toont aan dat AI-samenvattingen de motivatie om bronnen te controleren doden

byAytun Çelebi
2 december 2025
in Research
Home Research
Share on FacebookShare on Twitter

Volgens een recent onderzoek onder meer dan 10.000 deelnemers kan het vertrouwen op grote taalmodellen (LLM’s) om informatie samen te vatten de kennisverwerving verminderen. Marketingprofessoren Jin Ho Yun en Shiri Melumad schreven samen een artikel waarin deze bevinding in zeven onderzoeken werd beschreven. Deelnemers kregen de opdracht een onderwerp, zoals moestuinieren, te leren via een LLM zoals ChatGPT of een standaard Google-zoekopdracht. Onderzoekers legden geen beperkingen op aan de duur van het gebruik van de tool of de interactie voor deelnemers. Deelnemers schreven vervolgens advies voor een vriend op basis van hun geleerde informatie. Uit gegevens bleek consistent dat degenen die LLM’s gebruikten voor het leren, het gevoel hadden dat ze minder leerden en minder moeite investeerden in het creëren van advies. Hun advies was korter, minder feitelijk en algemener. Een onafhankelijke steekproef van lezers vond het van de LLM afgeleide advies minder informatief, minder nuttig en was minder geneigd het over te nemen. Deze verschillen bleven bestaan ​​in verschillende contexten. Eén experiment controleerde op mogelijke variaties in informatie-eclecticisme door deelnemers bloot te stellen aan identieke feiten uit zowel Google- als ChatGPT-zoekopdrachten. Een ander experiment hield het zoekplatform constant – Google – terwijl het varieerde of deelnemers leerden van standaard Google-resultaten of van de AI-overzichtsfunctie van Google. Zelfs als de feiten en het platform gestandaardiseerd waren, resulteerde het leren van gesynthetiseerde LLM-reacties in oppervlakkigere kennis vergeleken met het verzamelen, interpreteren en synthetiseren van informatie via standaard weblinks. De studie schrijft dit verminderde leervermogen toe aan een verminderde actieve betrokkenheid. Google-zoekopdrachten brengen meer ‘wrijving’ met zich mee, waardoor navigatie, lezen, interpretatie en synthese van verschillende weblinks nodig is, wat een diepere mentale representatie bevordert. LLM’s voeren dit proces uit voor de gebruiker, waardoor het leren van actief naar passief wordt verschoven. Onderzoekers pleiten niet voor het vermijden van LLM’s, gezien hun voordelen in andere contexten. In plaats daarvan suggereren ze dat gebruikers strategischer worden door te begrijpen waar LLM’s gunstig of schadelijk zijn voor hun doelen. Voor snelle, feitelijke antwoorden zijn LLM’s geschikt. Voor het ontwikkelen van diepgaande, generaliseerbare kennis is het echter minder effectief om uitsluitend op LLM-syntheses te vertrouwen. Verdere experimenten omvatten een gespecialiseerd GPT-model dat naast gesynthetiseerde antwoorden ook realtime weblinks biedt. Deelnemers die een LLM-samenvatting ontvingen, waren niet gemotiveerd om originele bronnen te verkennen, wat leidde tot oppervlakkigere kennis vergeleken met degenen die standaard Google gebruikten. Toekomstig onderzoek zal zich richten op generatieve AI-tools die ‘gezonde fricties’ introduceren om actief leren aan te moedigen dat verder gaat dan gemakkelijk te synthetiseren antwoorden, vooral in het secundair onderwijs. Dit artikel is opnieuw gepubliceerd van Het gesprek.


Uitgelicht beeldtegoed

Tags: AIOnderzoek

Related Posts

Wetenschappers ontdekken meer dan 17.000 nieuwe soorten

Wetenschappers ontdekken meer dan 17.000 nieuwe soorten

26 december 2025
GPT-5.2 overtreft de PhD-baseline van experts met een wetenschappelijke score van 92%

GPT-5.2 overtreft de PhD-baseline van experts met een wetenschappelijke score van 92%

24 december 2025
Waarom DIG AI de gevaarlijkste kwaadaardige AI van 2025 is

Waarom DIG AI de gevaarlijkste kwaadaardige AI van 2025 is

23 december 2025
Natrium-ionbatterijen komen dichter bij snel opladen naarmate onderzoekers ionenknelpunten opsporen

Natrium-ionbatterijen komen dichter bij snel opladen naarmate onderzoekers ionenknelpunten opsporen

19 december 2025
Het spook van  biljoen vangen: AI herschrijft de regels van financiële misdaad

Het spook van $2 biljoen vangen: AI herschrijft de regels van financiële misdaad

15 december 2025
LLM’s vertonen duidelijke culturele vooroordelen in Engelse versus Chinese aanwijzingen

LLM’s vertonen duidelijke culturele vooroordelen in Engelse versus Chinese aanwijzingen

15 december 2025

Recent Posts

  • Alibaba’s Qwen Code v0.5.0 transformeert terminal in een volledig ontwikkel-ecosysteem
  • Bethesda mikt op 600 uur gameplay voor Fallout 5
  • ASUS verdedigt verkeerd uitgelijnde RTX 5090 HyperX-voedingspoort als "opzettelijk ontwerp"
  • NVIDIA open source CUDA Tile IR op GitHub
  • CEO van MicroStrategy zegt Bitcoin-fundamentals "kan niet beter"

Recent Comments

Geen reacties om weer te geven.
Dataconomy NL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.