Smart Home -technologie verandert voor altijd, en een van de meest impactvolle applicaties is Menselijke activiteitherkenning (HAR). HAR stelt slimme systemen in staat om dagelijkse activiteiten te controleren, zoals koken, slapen of sporten, en essentiële ondersteuning bieden in domeinen zoals gezondheidszorg en geassisteerd leven. Hoewel de diepe leermodellen de harnauwkeurigheid van de har hebben, werken ze vaak als ‘zwarte dozen’, die weinig transparantie bieden in hun besluitvormingsproces.
Om dit aan te pakken, hebben onderzoekers van de Universiteit van Milaan – Michele Fiori, Davide Mor, Gabriele Civitarese en Claudio Bettini – hebben ingevoerd Gnn-xarde eerste Uitlegbare grafiek Neural Network (GNN) voor Smart Home Activity Recognition. Dit innovatieve model verbetert niet alleen de HAR-prestaties, maar genereert ook door mensen leesbare verklaringen voor zijn voorspellingen.
De behoefte aan uitlegbare AI in slimme huizen
De meeste bestaande HAR -systemen zijn afhankelijk van de diepe leermodellen zoals Convolutional Neural Networks (CNNS) en Recurrent Neural Networks (RNNS). Hoewel effectief, worstelen deze modellen met verklarbaarheid, waardoor het voor gebruikers – inclusief medische professionals en datawetenschappers – moeilijk is om te begrijpen waarom een specifieke activiteit is gedetecteerd. Uitlegbare ai (xai) probeert dit te verminderen door inzichten te geven in modelbeslissingen, het verbeteren van vertrouwen en bruikbaarheid in real-world applicaties.
Graph Neural Networks (GNN’s) zijn naar voren gekomen als een krachtig hulpmiddel voor het modelleren van tijdreeksensensorgegevens in slimme huizen, zoals ze kunnen Leg zowel ruimtelijke als tijdelijke relaties vast tussen sensorwaarden. Bestaande GNN-gebaseerde HAR-benaderingen missen echter ingebouwde verklaring. Dit is waar GNN-XAR zich onderscheidt en een innovatieve oplossing biedt die combineert Graph-gebaseerde HAR met interpreteerbaarheidsmechanismenwaardoor het de eerste in zijn soort in het veld is.
Emoti-Attack: hoe emoji’s AI-taalmodellen kunnen misleiden
Hoe GNN-XAR werkt
GNN-XAR introduceert een roman op grafiek gebaseerde aanpak om gegevensverwerking te sensor. In plaats van sensorwaarden te behandelen als geïsoleerde gebeurtenissen, het construeert dynamische grafieken die modelrelaties tussen verschillende sensoren in de loop van de tijd. Elke grafiek wordt verwerkt met een Graph Convolutional Network (GCN)die identificeert dat de meest waarschijnlijke activiteit wordt uitgevoerd. Om transparantie te garanderen, is een aangepast XAI -techniek specifiek ontworpen voor GNN’s Benadrukt de meest relevante knooppunten (sensorwaarden) en bogen (tijdelijke afhankelijkheden) die hebben bijgedragen aan de uiteindelijke voorspelling.
De Grafiekconstructieproces is een belangrijke innovatie in GNN-XAR. Sensorgebeurtenissen – zoals bewegingsdetecties, gebruik van apparaten en deuropeningen – worden weergegeven als knooppunten, terwijl randen hun tijdelijke en ruimtelijke relaties vastleggen. Het systeem maakt onderscheid tussen twee sensortypen:
- Expliciete interactiegedrag (bijv. Cabinet Deur -sensoren), die zowel aan als uit -evenementen genereren.
- Passieve sensoren (bijv. Bewegingsdetectoren), waarbij alleen activeringsgebeurtenissen ertoe doen en de duur wordt berekend.
Om structuur en efficiëntie te handhaven, introduceert het systeem supernodes Die groepsgerelateerde sensorgebeurtenissen. Hierdoor kan het GNN -model complexe sensorinteracties verwerken, terwijl de berekeningen beheersbaar blijven.
Hoe GNN-XAR zijn beslissingen uitlegt
In tegenstelling tot traditionele diepgaande leermodellen, die alleen classificatie-output bieden, gebruikt GNN-XAR Gnnexplainereen gespecialiseerde XAI-methode op maat gemaakt voor op grafieken gebaseerde modellen. Deze methode identificeert de belangrijkste knooppunten en randen die een voorspelling hebben beïnvloed. De belangrijkste innovatie in GNN-XAR is de aanpassing van GnNexplainer om naadloos te werken met smart home-gegevens, waardoor verklaringen beide zijn nauwkeurig en menselijk leesbaar.
Als het systeem bijvoorbeeld ‘maaltijdbereiding’ voorspelt, kan het gebeurtenissen zoals Herhaalde koelkastopeningen gevolgd door fornuisactiveringhet bieden van een logische en begrijpelijke reden voor zijn classificatie. Het model converteert deze uitleg vervolgens naar natuurlijke taal, waardoor het toegankelijk is voor niet-expert-gebruikers.
Experimentele resultaten
GNN-XAR werd getest op twee openbare Smart Home-gegevenssets-Casas Milaan En Casas Aruba– die sensorgegevens uit echte huizen bevatten. Het model werd geëvalueerd tegen Dexareen state-of-the-art uitlegbaar HAR-systeem dat op CNN gebaseerde methoden gebruikt. De resultaten toonden aan dat GNN-XAR niet alleen werd verstrekt Nauwkeurigere voorspellingen maar ook gegenereerd Meer zinvolle verklaringen Vergeleken met bestaande op XAI gebaseerde HAR-methoden.
Belangrijkste bevindingen zijn onder meer:
- Iets hogere herkenningsnauwkeurigheid dan Dexar, vooral voor activiteiten met sterke temporele afhankelijkheden (bijv. “Huis verlaten”).
- Superieure uitlegbaarheidzoals gemeten door een evaluatiemethode met behulp van grote taalmodellen (LLMS) om de uitleg duidelijkheid en relevantie te beoordelen.
- Verbeterde behandeling van complexe sensorrelatieshet inschakelen van meer betrouwbare HAR -prestaties.
Uitgelichte afbeeldingskrediet: Ihor saveliev/unsplash