Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
No Result
View All Result

Onderzoek toont aan dat AI-samenvattingen de motivatie om bronnen te controleren doden

byAytun Çelebi
2 december 2025
in Research
Home Research
Share on FacebookShare on Twitter

Volgens een recent onderzoek onder meer dan 10.000 deelnemers kan het vertrouwen op grote taalmodellen (LLM’s) om informatie samen te vatten de kennisverwerving verminderen. Marketingprofessoren Jin Ho Yun en Shiri Melumad schreven samen een artikel waarin deze bevinding in zeven onderzoeken werd beschreven. Deelnemers kregen de opdracht een onderwerp, zoals moestuinieren, te leren via een LLM zoals ChatGPT of een standaard Google-zoekopdracht. Onderzoekers legden geen beperkingen op aan de duur van het gebruik van de tool of de interactie voor deelnemers. Deelnemers schreven vervolgens advies voor een vriend op basis van hun geleerde informatie. Uit gegevens bleek consistent dat degenen die LLM’s gebruikten voor het leren, het gevoel hadden dat ze minder leerden en minder moeite investeerden in het creëren van advies. Hun advies was korter, minder feitelijk en algemener. Een onafhankelijke steekproef van lezers vond het van de LLM afgeleide advies minder informatief, minder nuttig en was minder geneigd het over te nemen. Deze verschillen bleven bestaan ​​in verschillende contexten. Eén experiment controleerde op mogelijke variaties in informatie-eclecticisme door deelnemers bloot te stellen aan identieke feiten uit zowel Google- als ChatGPT-zoekopdrachten. Een ander experiment hield het zoekplatform constant – Google – terwijl het varieerde of deelnemers leerden van standaard Google-resultaten of van de AI-overzichtsfunctie van Google. Zelfs als de feiten en het platform gestandaardiseerd waren, resulteerde het leren van gesynthetiseerde LLM-reacties in oppervlakkigere kennis vergeleken met het verzamelen, interpreteren en synthetiseren van informatie via standaard weblinks. De studie schrijft dit verminderde leervermogen toe aan een verminderde actieve betrokkenheid. Google-zoekopdrachten brengen meer ‘wrijving’ met zich mee, waardoor navigatie, lezen, interpretatie en synthese van verschillende weblinks nodig is, wat een diepere mentale representatie bevordert. LLM’s voeren dit proces uit voor de gebruiker, waardoor het leren van actief naar passief wordt verschoven. Onderzoekers pleiten niet voor het vermijden van LLM’s, gezien hun voordelen in andere contexten. In plaats daarvan suggereren ze dat gebruikers strategischer worden door te begrijpen waar LLM’s gunstig of schadelijk zijn voor hun doelen. Voor snelle, feitelijke antwoorden zijn LLM’s geschikt. Voor het ontwikkelen van diepgaande, generaliseerbare kennis is het echter minder effectief om uitsluitend op LLM-syntheses te vertrouwen. Verdere experimenten omvatten een gespecialiseerd GPT-model dat naast gesynthetiseerde antwoorden ook realtime weblinks biedt. Deelnemers die een LLM-samenvatting ontvingen, waren niet gemotiveerd om originele bronnen te verkennen, wat leidde tot oppervlakkigere kennis vergeleken met degenen die standaard Google gebruikten. Toekomstig onderzoek zal zich richten op generatieve AI-tools die ‘gezonde fricties’ introduceren om actief leren aan te moedigen dat verder gaat dan gemakkelijk te synthetiseren antwoorden, vooral in het secundair onderwijs. Dit artikel is opnieuw gepubliceerd van Het gesprek.


Uitgelicht beeldtegoed

Tags: AIOnderzoek

Related Posts

OpenAI wil dat zijn AI bekent dat hij hackt en regels overtreedt

OpenAI wil dat zijn AI bekent dat hij hackt en regels overtreedt

4 december 2025
MIT: AI-mogelijkheden overtreffen de huidige acceptatie vijf keer

MIT: AI-mogelijkheden overtreffen de huidige acceptatie vijf keer

2 december 2025
Stanford’s Evo AI ontwerpt nieuwe eiwitten met behulp van genomische taalmodellen

Stanford’s Evo AI ontwerpt nieuwe eiwitten met behulp van genomische taalmodellen

1 december 2025
Uit onderzoek blijkt dat poëzie 62% van de tijd de AI-veiligheidsfilters omzeilt

Uit onderzoek blijkt dat poëzie 62% van de tijd de AI-veiligheidsfilters omzeilt

1 december 2025
Jouw toekomstige kwantumcomputer zou toch wel eens op standaard silicium kunnen worden gebouwd

Jouw toekomstige kwantumcomputer zou toch wel eens op standaard silicium kunnen worden gebouwd

25 november 2025
Microsoft’s Fara-7B: nieuwe agent LLM uit screenshots

Microsoft’s Fara-7B: nieuwe agent LLM uit screenshots

25 november 2025

Recent Posts

  • Anthropic lanceert Interviewer-bot om gebruikers te ondervragen over AI-gebruik
  • Huawei signaleert herstel met terugkeer van 5G-chips na vijf jaar strijd
  • Nieuwe Kindle Scribe en Colorsoft worden op 10 december gelanceerd vanaf $ 499
  • Amazon overweegt een rivaliserend netwerk op te bouwen nu de contractbesprekingen van de USPS vastlopen
  • Netflix neemt Warner Bros en HBO Max over voor $82,7 miljard

Recent Comments

Geen reacties om weer te geven.
Dataconomy NL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.