Kunstmatige intelligentie heeft veel dingen onder de knie-gedichten schrijven, auto’s rijden, zelfs je volgende binge-watch voorspellen. Maar er is één ding waarmee het nog steeds worstelt: weten wanneer te groeien, wanneer te vergeten en hoe je in de loop van de tijd kunt blijven evolueren. Met andere woorden, AI doet geen neuroplasticiteit. Nog.
Dat is het argument dat een groep onderzoekers maakt in een nieuwe papier Dat haalt direct inspiratie uit de menselijke biologie. Ze stellen een radicale heroverweging voor hoe neurale netwerken leren-niet alleen door hun gewichten te verfijnen of parameters uit te breiden, maar door trucs te lenen van hoe de hersenen zichzelf herwinnen: door neurogenese (groeiende nieuwe neuronen), neuroapoptosis (strategisch doden van anderen) en plasticiteit (beide doende). En als hun ideeën aanslaan, gedraagt de volgende generatie AI zich misschien minder als een rekenmachine en meer als, nou ja, jij.
Waarom is dit nu belangrijk?
Moderne neurale netwerken, vooral grote taalmodellen, zijn krachtiger dan ooit – maar ook rigide. Eenmaal getraind, blijven hun architecturen vast. Nieuwe gegevens kunnen worden toegevoegd, maar het skelet van het model blijft ongewijzigd. Het menselijk brein is daarentegen voortdurend bijgewerkt. We kweken nieuwe neuronen, snoeien de nutteloze uiteinden en versterken verbindingen op basis van ervaring. Dat is hoe we nieuwe vaardigheden leren zonder de oude te vergeten – en herstellen van tegenslagen.
De onderzoekers beweren dat deze biologische flexibiliteit precies zou kunnen zijn wat AI nodig heeft, vooral voor taken uit de real-world, langetermijn. Stel je een chatbot voor klantenservice voor die kan evolueren met nieuwe productlijnen of een medische AI die slimmer wordt bij elke patiënt die het ziet. Deze systemen moeten niet alleen opnieuw trainen-ze moeten opnieuw bedraden.
The Dropin Revolution: AI laten groeien nieuwe neuronen
Als je gehoord hebt van dropout – de populaire regularisatiemethode waarbij willekeurige neuronen tijdens de training worden gedeactiveerd om overfitting te voorkomen – dan zul je de charme van zijn omgekeerde waarderen: ‘dropin’.
Dropin is een term die de onderzoekers bedacht om het kunstmatige equivalent van neurogenese te beschrijven. Het idee is eenvoudig: wanneer een neuraal netwerk een muur raakt bij het leren, waarom zou u het dan niet meer capaciteit geven? Net zoals het brein nieuwe neuronen groeit als reactie op stimuli, kan een model nieuwe neuronen en verbindingen voortbrengen wanneer het worstelt met een taak. Zie het als AI met een groeispurt.
Het artikel stelt zelfs een algoritme voor: als de verliesfunctie van het model stagneert (wat betekent dat het weinig leert), wordt dropin geactiveerd, waardoor verse neuronen selectief worden toegevoegd. Deze neuronen worden niet zomaar blindelings gegooid. Ze worden geplaatst waar het model tekenen van hoge stress of underperformance vertoont. In wezen krijgt het netwerk ruimte om te ademen en aan te passen.
En soms moet AI het vergeten
Net zo cruciaal als groei snoeit. Neuroapoptosis-de zelfvernietigingsknop van de hersenen voor achterblijvende neuronen-heeft ook zijn digitale analogen. Dropout is er een. Structurele snoeien, waar hele neuronen of verbindingen permanent worden verwijderd, is een andere.
De onderzoekers beschrijven hoe verschillende uitvalstrategieën dit selectieve vergeten weerspiegelen. Van adaptieve uitval (die de uitval van de uitval verandert op basis van het neuron van een neuron) tot geavanceerde vormen zoals beton of variabele uitval (die leren welke neuronen te doden tijdens de training), de AI -wereld is al halverwege in de richting van het nabootsen van apoptose.
En structurele snoeien? Het is nog hardcore. Zodra een neuron nutteloos wordt beschouwd, is het verdwenen. Dit is niet alleen goed voor efficiëntie – het kan ook overfitting verminderen, de inferentie versnellen en energie besparen. Maar snoeien moet worden gedaan met chirurgische precisie. Overdrijf het, en u riskeert “Laag ineenstort” – Een model dat te veel vergeet om te functioneren.
Deze AI leert beter te klikken dan jij
Hier worden de dingen opwindend. Echte hersenen groeien of snoeien niet alleen – ze doen allebei altijd, in reactie op leren. Dat is neuroplasticiteit. En AI zou er een dosis van kunnen gebruiken.
De onderzoekers stellen voor om dropin en uitval in een continue lus te combineren. Naarmate modellen nieuwe gegevens ontvangen of nieuwe taken krijgen, breiden ze dynamisch uit of samentrekken ze, net zoals je hersenen die zich aanpassen aan een nieuwe taal of herstellen van letsel. Ze presenteren zelfs een algoritme dat veranderingen in het leersnelheid gebruikt en feedback modelleren om te beslissen wanneer ze moeten groeien, wanneer ze moeten krimpen en wanneer ze moeten blijven.
Dit is geen science fiction. Soortgelijke ideeën kruipen al in AI: op adapter gebaseerde verfijning zoals Lora, dynamische laaguitbreiding in LLMS en voortdurende leerkaders wijzen allemaal in deze richting. Maar wat ontbreekt is een verenigend raamwerk dat deze methoden weer verbindt aan de biologie – en systematiseert wanneer en hoe u zich kunt aanpassen.
Dynamische netwerken zijn niet eenvoudig te beheren. Het toevoegen en verwijderen van neuronen tijdens het trainen compliceert foutopsporing, maakt fout traceren harder en riskeert instabiliteit. En in tegenstelling tot biologische hersenen, die miljoenen jaren van evolutie aan hun zijde hebben, hebben neurale netwerken slechts een paar regels code en sommige heuristieken.
Er is ook het probleem van het meten van succes. Wanneer is een nieuw neuron nuttig? Wanneer is het gewoon lawaai? En hoe breng je leren op korte termijn in evenwicht met langetermijngeheugen-een uitdaging die zelfs mensen niet volledig hebben opgelost?
Een nieuwe blauwdruk voor AI en voor ons
Ondanks de hindernissen is de visie dwingend. AI die niet alleen leert – het evolueert. AI die weet wanneer te vergeten. Dat breidt zich uit wanneer het wordt uitgedaagd. Dat past zich aan als een levend systeem, geen bevroren codebase.
Bovendien kan de feedbacklus tussen neurowetenschappen en AI beide kanten op. Hoe meer we modellen bouwen geïnspireerd door de hersenen, hoe meer we misschien leren over hoe onze eigen geest werkt. En op een dag kan AI ons helpen diepere geheimen van cognitie, geheugen en aanpassing te ontgrendelen.
Dus, de volgende keer dat u vergeet waar u uw sleutels achterliet – of een nieuwe vaardigheid leert – onthoudt je: je hersenen doen wat de slimste AI van vandaag net begint te begrijpen. En als onderzoekers hun zin hebben, is uw vergeetachtige, aanpasbare, plastic brein misschien wel de gouden standaard voor de machines van morgen.