AI is goed in patroonherkenning, maar worstelt met redeneren. Ondertussen is menselijke cognitie diep geworteld in logica en samenhang. Wat als we konden Combineer het beste van twee werelden—De ruwe verwerkingskracht van grote taalmodellen (LLMS) en het gestructureerde, op regels gebaseerde denken over symbolische AI?
Dit is het doel erachter Neurosymbolische AIeen nieuwe aanpak die diep leren samenvoegt met coherentie-gedreven inferentie (CDI). Onderzoekers Huntsman en Thomas stellen een methode voor die LLMS toestaat construeer logische relaties van natuurlijke taal, het openen van de deur naar Betere besluitvorming, probleemoplossing en zelfs AI-aangedreven juridische redenering.
Deze studie, “Neurosymbolische kunstmatige intelligentie via grote taalmodellen en coherentiegedreven inferentie‘Geleid door Steve Huntsman en Jewell Thomas uit Cynnovative, onderzoekt een nieuwe benadering voor het integreren van coherentiegedreven inferentie (CDI) met grote taalmodellen (LLMS). Door het ontwikkelen van een algoritme dat de proposities van natuurlijke taal omzet in gestructureerde coherentiekrafieken, benchmark het vermogen van de onderzoekers om logische relaties te reconstrueren.
Wat is coherentie-gedreven gevolgtrekking?
Coherentie-gedreven inferentie (CDI) is een manier om beslissingen te nemen op basis van hoe goed een reeks proposities in elkaar passen. In plaats van eenvoudigweg individuele feiten te accepteren of af te wijzen, bouwt CDI een Grafiek van relatiesgewichten toewijzen aan consistent En tegenstrijdig verklaringen.
Een coherentiegrafiek zou deze stellingen verbinden en Scoor hun consistentieAI helpen bepalen welke uitspraken het meest waarschijnlijk waar zijn.
Het probleem? Tot nu toe moesten deze grafieken zijn Handmatig gebouwd— Een nauwgezet en onpraktisch proces. Het nieuwe onderzoek stelt een algoritme voor dat kan automatisch genereren deze grafieken van Natuurlijke taalinvoer en test hoe goed LLMS ze kan reconstrueren.
Waarom kleine AI -modellen grote niet bijhouden
LLMS onderwijzen om logische structuren op te bouwen
De methode van de onderzoekers omvat twee belangrijke stappen:
- Het genereren van stellingen: Een reeks uitspraken wordt gemaakt in de natuurlijke taal, die een logische structuur weerspiegelt.
- Reconstrueren van coherentiekluizen: LLMS wordt vervolgens gevraagd om deze verklaringen te analyseren en de onderliggende grafiekstructuur opnieuw op te bouwen.
Door dit te doen, worden AI -modellen gedwongen Denk meer als mensenhet evalueren van niet alleen individuele feiten, maar Hoe ze verbinding maken met een breder web van kennis.
Kan AI het goed doen?
De studie testte verschillende LLMS, van GPT-4O en Claude 3.5 naar Open-source modellen zoals Qwen-32B en LLAMA-3.3. De resultaten waren verrassend veelbelovend– Sommige modellen waren in staat om coherentiegrafieken met hoge nauwkeurigheid te reconstrueren, zelfs onder onzekere of dubbelzinnige voorwaarden.
Interessant genoeg Modellen geoptimaliseerd voor redenerenleuk vinden O1-Mini en QWQ-32Bpresteerde het beste. Dit suggereert dat AI -systemen specifiek zijn opgeleid voor gestructureerd probleemoplossing kan beter presteren dan LLM’s voor algemene doeleinden bij het afhandelen van complexe redeneringstaken.
In de kern van Coherentie-gedreven inferentie (CDI) is het idee dat kennis niet alleen een verzameling van is geïsoleerde feiten– Het is een netwerk van onderling afhankelijke waarheden. De methode geïntroduceerd door Huntsman en Thomas structureert kennis als een samenhanggrafiekwaar:
- Knooppunten vertegenwoordigen stellingen (bijv. “Den Haag is de hoofdstad”).
- Randen vertegenwoordigen samenhang of inconsistentie tussen die stellingen.
Als een propositie Ondersteunt een anderehet krijgt een Positieve verbinding. Als twee verklaringen tegenspreken, ontvangen ze een negatieve verbinding. Het doel? Naar Maximaliseer de samenhang door te scheiden Ware en valse uitspraken in verschillende clusters.
Het probleem van het vinden van de meest coherente partitie in een grafiek blijkt wiskundig equivalent te zijn Maximaal gesnedeneen bekende computationele uitdaging. Neurosymbolische AI pakt dit aan door LLMS ‘natuurlijke taalbegrip te combineren met de grafische redenering van CDI.
De aanpak van de onderzoekers is inspiratie uit Zowel psychologie als informatica. CDI is gebruikt om te modelleren menselijke besluitvormingjuridisch redeneren, en zelfs Causale gevolgtrekking in de wetenschap. Maar tot nu toe moesten CDI -grafieken handmatig worden geconstrueerd.
Om dit proces te automatiseren, stelt de studie een algoritme voor dat:
- Transformeert natuurlijke taalproposities in een gestructureerde coherentiegrafiek.
- Treinen LLMS om deze grafieken te reconstruerenhet testen van hun vermogen om relaties tussen feiten te identificeren.
- Benchmarks prestaties in verschillende AI -modellenanalyseren hoe goed ze de logische consistentie behouden.
Om te testen hoe goed LLMS omgaat met coherentie-gedreven inferentie, genereerden de onderzoekers synthetische coherentiegrafieken en gaven ze in verschillende AI-modellen. Deze grafieken bevatten zowel consistente als tegenstrijdige uitspraken en daagden de modellen uit om logische structuren te identificeren in plaats van alleen informatie te regurgeren.
Ze testten:
- Claude 3.5 en GPT-4O (High-End Commercial LLMS)
- QWQ-32B, O1-Mini en LLAMA-3 (Open-source modellen geoptimaliseerd voor redeneren)
- PHI-4 en Gemini 1.5/2.0 (kleinere en middelgrote modellen)
De resultaten toonden aan dat:
- Modellen geoptimaliseerd voor redeneren (zoals O1-Mini en QWQ-32B) presteerden aanzienlijk beter dan LLMS met algemene doeleinden.
- Sommige modellen hebben met succes de oorspronkelijke coherentiegrafiek gereconstrueerd – zelfs wanneer ze worden geconfronteerd met onzekere of dubbelzinnige informatie.
- LLMS worstelde met complexere logische structuren, vooral wanneer meerdere stellingen onderling afhankelijk waren.
Dit onderzoek is een belangrijke stap in de richting van Echt intelligente AI. In plaats van taal te behandelen als een Statistisch radenspelcoherentie-gedreven gevolgtrekking dwingt AI tot Evalueer logische consistentieleidend naar:
- Betrouwbaardere AI -uitgangen (Minder hallucinatie, nauwkeuriger redeneren)
- Betere verklaarbaarheid (AI -beslissingen op basis van expliciete logische structuren)
- Verbeterde probleemoplossing (van toepassing op wet, wetenschap en governance)
Uitgelichte afbeeldingskrediet: Tara Winstead/Pexels