According to a study conducted by Michael Walters (Gaia Lab, Nuremberg, Germany), Rafael Kaufmann (Primordia Co., Cascais, Portugal), Justice Sefas (University of British Columbia, BC, Canada), and Thomas Kopinski (Gaia Lab, Fachhochschule Sudwestfalen, Meschede, Duitsland), een nieuwe door de natuurkunde geïnspireerde benadering van AI-veiligheid kan multi-agent systemen-zoals autonome voertuigen-significant veiliger maken.
Hun paper, ‘Gratis energierisico-statistieken voor systemisch veilige AI: gatekeeping multi-agent studie”, Introduceert een nieuwe methode voor risicometing die de besluitvorming in AI-systemen verbetert door van tevoren risico’s te voorspellen en preventieve actie te ondernemen.
Wat is het Free Energy Principle (FEP) en waarom maakt het uit?
De kern van hun onderzoek is de Free Energy Principle (FEP)een concept dat oorspronkelijk in de natuurkunde is ontwikkeld. In eenvoudige bewoordingen helpt FEP uit hoe systemen in evenwicht zijn Nauwkeurigheid (energie) En eenvoud (entropie) Bij het doen van voorspellingen.
Zie het zo: een AI -systeem dat probeert te navigeren, moet een evenwicht vinden tussen het verzamelen van gedetailleerde informatie en efficiënt handelen. Als het systeem te complex is, wordt het moeilijk te beheren; Als het te eenvoudig is, kan het kritieke risico’s over het hoofd zien. De auteurs gebruiken dit principe om een Nieuw risicometisch Dat vermijdt de behoefte aan enorme hoeveelheden gegevens of overdreven gecompliceerde modellen, waardoor AI -veiligheid wordt gemaakt meer praktisch en transparant.
AI leert te rijden als een mens – door je in paniek te zien
Cumulatieve risicoblootstelling (CRE) is een slimmere manier om het risico te meten
De onderzoekers stellen een nieuw risicometatiesysteem voor dat wordt genoemd Cumulatieve risicoblootstelling (CRE).
Hoe is CRE anders?
- In tegenstelling tot traditionele risicomodellendie afhankelijk zijn van uitgebreide wereldmodellen, laat CRE belanghebbenden definiëren wat ‘veilig’ betekent door voorkeursresultaten te specificeren.
- Dit maakt besluitvorming transparant en flexibelomdat het systeem zich aanpast aan verschillende omgevingen en behoeften.
- In plaats van op te vertrouwen Overmatige sensorgegevensCRE schat risico’s door voorspellende simulaties in korte tijdframes.
Cre biedt een meer efficiënt en aanpasbaar manier om het risico in AI-gedreven systemen te beoordelen, waardoor de afhankelijkheid van resource-intensieve berekeningen wordt verminderd.
Gatekeepers: AI die binnenkomt voordat dingen fout gaan
Om de CRE-metriek toe te passen in real-world scenario’s, introduceren de onderzoekers poortwachters—Modules die AI -beslissingen volgen en ingrijpen wanneer dat nodig is.
Hoe werken poortwachters?
- In het geval van autonome voertuigen, Gatekeepers simuleren constant mogelijke toekomstscenario’s om het risico te bepalen.
- Als ze een onveilig resultaat detecteren, dan overschrijf de huidige rijmodus van het voertuig en schakel het over naar een veiliger gedrag.
- Hierdoor kunnen AI -systemen anticiperen Gevaren voordat ze plaatsvinden in plaats van achteraf te reageren.
Simulatie van veiligere wegen met autonome voertuigen
De studie testte dit model in een gesimuleerde rijomgeving. De onderzoekers verdeelden voertuigen in twee groepen:
- “Ego’s” – Voertuigen gecontroleerd en gecontroleerd door poortwachters.
- “Alters” -Achtergrondvoertuigen met vast, vooraf ingesteld rijgedrag.
Hierin snelwegsimulatieSommige ego -voertuigen mochten worden gecontroleerd door poortwachters, terwijl anderen dat niet waren.
Belangrijkste bevindingen:
- Zelfs als slechts een klein aantal voertuigen onder de poortwachter controle stonden, Algemene verkeersveiligheid verbeterde.
- Minder botsingen vond plaats en toonde aan dat proactieve interventie een meetbaar verschil maakte.
- Voertuigen onderhouden Hoge snelheden als ze veilig zijn maar schakelde over naar voorzichtig rijden wanneer de risiconiveaus stegen.
De resultaten suggereren dat zelfs Gedeeltelijke adoptie van Gatekeeper-gecontroleerde AI zou kunnen leiden Veiliger verkeersomstandigheden zonder de efficiëntie in gevaar te brengen. Terwijl de studie zich richtte op autonome voertuigen, de CRE- en poortwachter-model kan van toepassing zijn op vele andere AI-aangedreven velden.
Potentiële toepassingen zijn onder meer:
- Robotica: Ervoor zorgen dat AI-aangedreven robots veilig naast mensen werken.
- Financiële handelssystemen: Voorspelling van risicovolle marktbewegingen en aanpassingsstrategieën.
- Industriële automatisering: Voorkomen dat AI-gecontroleerde machines onveilige beslissingen nemen.
Uitgelichte afbeeldingskrediet: Kerem gülen/midjourney