Het proces van het opbouwen van ontologieën – die gestructureerde, onderling verbonden kenniskaarten die alles van zoekmachines tot AI -redenering van kracht zijn – is notoir complex. Het vereist een mix van domein -expertise, logische strengheid en een bijna filosofisch begrip van hoe concepten zich verhouden. Jarenlang hebben ontologie -ingenieurs geworsteld met de uitdaging om abstracte kennis om te zetten in gestructureerde gegevens. Nu stappen grote taalmodellen (LLMS) in de ring en beweren dat ze veel van het zware tillen kunnen doen.
Een team van onderzoekers, waaronder Anna Sofia Lippolis, Mohammad Javad Saeedizade en Eva Blomqvist, heeft die claim getest. Hun laatste studie Evalueert of AI-modellen-met name Openai’s O1-Preview, GPT-4 en LLAMA 3.1 van Meta-bruikbare ontologieën kunnen genereren uit beschrijvingen van natuurlijke taal. De resultaten? Een mix van belofte, valkuilen en filosofische vragen over de rol van AI in kennisrepresentatie.
De AI-aangedreven Ontology Engineer
Traditioneel is ontologiecreatie afhankelijk van methoden zoals zoals Methontologie En Neondie ingenieurs begeleiden door een ingewikkeld proces van het definiëren van concepten, relaties en beperkingen. Maar zelfs voor doorgewinterde experts is dit proces tijdrovend en vatbaar voor fouten. De onderzoekers stelden een andere aanpak voor: Let LLMS genereren de basis en laten menselijke experts de resultaten verfijnen.
Hun studie introduceerde twee prompt technieken –Geheugenloze CQBYCQ En Ontogenia– Ontworpen om AI te helpen bij het stap voor stap ontologieën te genereren. Beide methoden waren gebaseerd op het voeden van AI -gestructureerde aanwijzingen op basis van competentievragen (vragen een ontologie zou moeten kunnen antwoorden) en Gebruikersverhalen (real-world scenario’s die de ontologie zou moeten ondersteunen).
In plaats van AI te dwingen hele ontologieën tegelijk te verwerken – een taak die vaak leidt tot verwarde, opgeblazen uitgangen – braken deze benaderingen het proces in modulaire stappen, waardoor LLMS één stuk per keer door logische constructies leidde.
Sensei: de AI die onderzoekt als een nieuwsgierig kind
Hoe goed heeft AI uitgevoerd?
De onderzoekers testten hun methoden op een benchmark-gegevensset, waarbij AI-gegenereerde ontologieën werden vergeleken met die gecreëerd door beginnende menselijke ingenieurs. De opvallende artiest? Openai’s O1-Previewmet behulp van de ontogenia -promptiemethode. Het produceerde ontologieën die niet alleen bruikbaar waren, maar dat het in veel gevallen beter presteerde dan die van menselijke beginners.
De studie benadrukte echter ook Kritische beperkingen. AI-gegenereerde ontologieën hadden de neiging om overbodige of inconsistente elementen te produceren-zoals beide definiëren in dienst En werkgelegenheidsstartdate voor hetzelfde concept. Erger nog, modellen worstelden vaak met de fijnere punten van logica, het genereren van overlappende domeinen en onjuiste omgekeerde relaties. Vooral het LLA -model van Meta presteerde slecht en produceerde verwarde hiërarchieën en structurele gebreken die de ontologieën moeilijk te gebruiken maakten.
Een van de grootste afhaalrestaurants? Context is belangrijk. Toen LLMS werd gedwongen om met te veel informatie tegelijk te werken, leden hun prestaties. Het bijsnijden van hun input – vandaar de “geheugenloze” strategie – hielp de irrelevante output en verbeterde samenhang verminderen.
Dus, moeten we AI de Ontology Engineering overnemen? Niet helemaal. Hoewel LLMS het opdrachtproces kan versnellen, blijft menselijke interventie essentieel. AI is geweldig in het snel produceren van gestructureerde kennis, maar de uitgangen zijn nog steeds nodig logische verfijning En semantische verificatie—Taken die menselijk toezicht vereisen.
De onderzoekers suggereren dat de ware rol van AI in Ontology Engineering die van een tweede piloot in plaats van een vervanging. In plaats van kennisgrafieken helemaal opnieuw te bouwen, kunnen LLMS helpen door gestructureerde concepten te genereren, die menselijke experts kunnen verfijnen. Toekomstige verbeteringen kunnen zich richten op integratie Ontologie -validatiemechanismen Direct in AI -workflows, waardoor de behoefte aan handmatige correcties wordt verminderd.
Met andere woorden, AI kan Help het territorium in kaart te brengenmaar mensen moeten dat nog steeds Controleer de oriëntatiepunten.
De studie roept ook een diepere vraag op over het vermogen van AI om kennis te begrijpen. Kan een model ontologische relaties echt “begrijpen”, of speelt het slechts een geavanceerd spel van statistisch patroon-matching? Terwijl AI blijft evolueren, is de lijn tussen menselijke logica en door de machine gegenereerde redenering vervaagd-maar voor nu hebben menselijke ingenieurs nog steeds het laatste woord.
LLMS kan verrassend hoogwaardige ontologie-concepten genereren, maar hun output blijven inconsistent en vereisen menselijke verfijning. Als het doel is efficiëntieAi-Assisted Ontology Engineering is al nuttig gebleken. Als het doel is perfectieer is nog een lange weg te gaan.
Uitgelichte afbeeldingskrediet: Kerem gülen/imagen 3