Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
No Result
View All Result

Kan AI echt redeneren over oorzaak en gevolg? Een nieuwe studie zet LLMS op de proef

byKerem Gülen
17 februari 2025
in Research
Home Research
Share on FacebookShare on Twitter

Een nieuwe studie van New York University en de Universiteit van Tübingengeleid door Hanna M. Dettki, Brenden M. Lake, Charley M. Wu en Bob Rehdervraagt ​​of AI kan redeneren over oorzaken zoals mensen doen of dat het in plaats daarvan op patronen afhankelijk is. Hun paper, ‘Reden grote taalmodellen causaal zoals wij? Nog beter?”, Probeert vier populaire modellen-GPT-3.5, GPT-4O, Claude-3 en Gemini-Pro-om te zien of ze complexe causale structuren begrijpen of alleen de menselijke taal nabootsen.

Hoe de studie causaal redeneren in AI testte

De onderzoekers vergeleken de menselijke redenering met vier LLMS –GPT-3.5, GPT-4O, Claude-3 en Gemini-pro– gebruik Collider -grafiekeneen klassieke test in causale gevolgtrekking. Deelnemers (zowel mens als AI) werd gevraagd om de kans op een evenement te evalueren gegeven bepaalde causale relaties. De kernvraag: redeneren llms causaal op dezelfde manier als mensen doen, of volgen ze een andere logica?


AI verwerkt nu moleculaire simulaties: dankzij Mdcrow


Belangrijkste bevindingen: AI kan redeneren, maar niet zoals mensen

De resultaten onthulden een spectrum van causaal redeneren onder AI -modellen.

  • GPT-4O en Claude-3 toonde het meest Normatief redenerenwat betekent dat ze de waarschijnlijkheidstheorie nader volgden dan menselijke deelnemers.
  • Gemini-Pro en GPT-3.5aan de andere kant, meer weergegeven associatieve redeneringwat betekent dat ze meer afhankelijk waren van statistische patronen in plaats van op strikte causale logica.
  • Alle modellen vertoonden vooroordelenafwijken van de verwachte onafhankelijkheid van oorzaken. Echter, Claude-3 was het minst bevooroordeeldwat betekent dat het zich het meest hechtte aan wiskundige causale normen.

Interessant genoeg Mensen passen vaak heuristiek toe die afwijken van de strikte waarschijnlijkheidstheorie – zoals het “uitleg” -effect, waarbij het observeren van de ene oorzaak de kans op een andere vermindert. Hoewel AI -modellen dit effect herkenden, varieerden hun antwoorden aanzienlijk op basis van trainingsgegevens en context.

AI versus menselijk redeneren: een fundamenteel verschil

Een van de meest intrigerende inzichten uit de studie is dat LLMS Biedt niet alleen de menselijke redenering na– Ze benaderen causaliteit anders. In tegenstelling tot mensen, wiens oordelen relatief stabiel bleven in verschillende contexten, AI -modellen hebben hun redenering aangepast, afhankelijk van domeinkennis (bijv. Economie versus sociologie).

  • Vooral GPT-4O behandelde causale verbindingen als deterministischervan uitgaande dat bepaalde oorzaken altijd specifieke effecten hebben.
  • Mensen daarentegen factor in onzekerheiderkennen dat causale relaties niet altijd absoluut zijn.

Dit suggereert dat terwijl AI kan zijn preciezer In bepaalde gestructureerde taken, het mist de flexibiliteit van menselijk denken bij het omgaan met dubbelzinnige of multi-causale situaties.

Waarom dit belangrijk is voor AI in de besluitvorming

De studie onthult een belangrijke beperking: LLMS mag causale kennis niet generaliseren buiten hun trainingsgegevens zonder sterke begeleiding. Dit heeft cruciale implicaties voor het inzetten van AI in real-world besluitvorming, van medische diagnoses tot economische voorspelling.

LLMS kan beter presteren dan mensen in waarschijnlijkheidsgebaseerde inferentie, maar hun redenering blijft fundamenteel anders-het ontbreken van de intuïtieve, adaptieve logica die mensen gebruiken bij dagelijkse probleemoplossing.

Met andere woorden, AI kan redeneren over causaliteit – maar niet helemaal zoals wij.


Uitgelichte afbeeldingskrediet: Kerem gülen/ideogram

Tags: AIllmUitgelaten

Related Posts

Wetenschappers ontdekken meer dan 17.000 nieuwe soorten

Wetenschappers ontdekken meer dan 17.000 nieuwe soorten

26 december 2025
GPT-5.2 overtreft de PhD-baseline van experts met een wetenschappelijke score van 92%

GPT-5.2 overtreft de PhD-baseline van experts met een wetenschappelijke score van 92%

24 december 2025
Waarom DIG AI de gevaarlijkste kwaadaardige AI van 2025 is

Waarom DIG AI de gevaarlijkste kwaadaardige AI van 2025 is

23 december 2025
Natrium-ionbatterijen komen dichter bij snel opladen naarmate onderzoekers ionenknelpunten opsporen

Natrium-ionbatterijen komen dichter bij snel opladen naarmate onderzoekers ionenknelpunten opsporen

19 december 2025
Het spook van  biljoen vangen: AI herschrijft de regels van financiële misdaad

Het spook van $2 biljoen vangen: AI herschrijft de regels van financiële misdaad

15 december 2025
LLM’s vertonen duidelijke culturele vooroordelen in Engelse versus Chinese aanwijzingen

LLM’s vertonen duidelijke culturele vooroordelen in Engelse versus Chinese aanwijzingen

15 december 2025

Recent Posts

  • Alibaba’s Qwen Code v0.5.0 transformeert terminal in een volledig ontwikkel-ecosysteem
  • Bethesda mikt op 600 uur gameplay voor Fallout 5
  • ASUS verdedigt verkeerd uitgelijnde RTX 5090 HyperX-voedingspoort als "opzettelijk ontwerp"
  • NVIDIA open source CUDA Tile IR op GitHub
  • CEO van MicroStrategy zegt Bitcoin-fundamentals "kan niet beter"

Recent Comments

Geen reacties om weer te geven.
Dataconomy NL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.