Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
No Result
View All Result

Vertrouwen AI -modellen hun toezichthouders?

byKerem Gülen
14 april 2025
in Research
Home Research
Share on FacebookShare on Twitter

De volgende keer dat iemand je vertelt dat AI ons helpt AI te reguleren, wil je misschien pauzeren. Omdat wanneer onderzoekers grote taalmodellen (LLM’s) in een gesimuleerde regelgevende omgeving plaatsen, waardoor ze de rollen van gebruikers, ontwikkelaars en regulatoren spelen, waren de resultaten niet bepaald geruststellend.

Dit nieuwe studiegeleid door een team van Teesside University en medewerkers in heel Europa, gebruikte de evolutionaire speltheorie om een ​​fundamentele vraag te onderzoeken: zouden AI -systemen zelf de regels van AI -verordening volgen? En nog interessanter: onder welke voorwaarden zouden ze vals spelen?

Het experiment: drie AI’s lopen een directiekamer binnen

De kern van de studie is een klassieke setup met drie spelers: de ene speler vertegenwoordigt AI-gebruikers, een andere AI-ontwikkelaars en de derde een regulator. Elk heeft eenvoudige keuzes: vertrouwen of niet, naleven of defecteren, reguleren of blijven hands-off.

Maar in plaats van alleen wiskundige modellen uit te voeren, gebruikten de onderzoekers echte LLMS, GPT-4O van Openai en Mistral grooten had ze deze scenario’s in honderden games laten spelen.

Soms was het een one-shot deal (eenmaal spelen, onthullen je strategie). Andere keren was het een herhaald spel, waar agenten konden leren van gedrag in het verleden.

Cruciaal is dat de onderzoekers realistische complicaties hebben toegevoegd:

  • Regulering komt met kosten (monitoring kost moeite)
  • Ontwikkelaars worden geconfronteerd met straffen als betrapt op het overtreden van regels
  • Gebruikers kunnen onvoorwaardelijk vertrouwen – of alleen vertrouwen als toezichthouders een goede reputatie hebben
  • Iedereen wil zijn uitbetaling maximaliseren

De resultaten: AI -agenten gedragen zich erger als gebruikers sceptisch zijn

Het hoofdinzicht? Voorwaardelijk vertrouwen, wanneer gebruikers alleen vertrouwen als regelgevers competent lijken, spectaculair mislukt.

Toen gebruikers op hun hoede waren, hadden zowel ontwikkelaars als toezichthouders meer kans om te overlopen. Verordening vervallen. Ontwikkelaars snijden hoeken. Regelgevers werden lui of soepel. Het vertrouwen liep naar beneden.

Maar toen gebruikers onvoorwaardelijk vertrouwen in het systeem plaatsten, zelfs zonder perfect bewijs, hadden ontwikkelaars en toezichthouders eerder de kans om samen te werken en veiliger AI te bouwen. Het is een brute paradox: hoe op hun hoede meer op hun hoede is, hoe groter de kans dat het systeem onbetrouwbaar wordt.

GPT-4 vs Mistral: AI Personalities Matter

Er was nog een fascinerende rimpel. Verschillende LLM’s gedroegen zich anders.

  • GPT-4O leunde optimistischer. Het was meer kans om te vertrouwen en te voldoen, vooral in herhaalde spellen waar samenwerking in de loop van de tijd zou kunnen ontstaan.
  • Mistral Large was meer pessimistisch. Het had de neiging om eerder te defecteren, minder vertrouwend en was gevoeliger voor wettelijke kosten.

Dit betekent dat zelfs de AI die u kiest voor governance -simulaties uw conclusies kan vormen – een grote uitdaging voor reproduceerbaarheid in AI -verordeningonderzoek.

Persoonlijkheden toevoegen: de risico’s van het afstemmen van AI -gedrag

De onderzoekers testten ook wat er gebeurt wanneer u expliciete ‘persoonlijkheden’ in de AI -agenten injecteert.

  • Risk-averse gebruikers vertrouwden minder.
  • Agressieve ontwikkelaars hebben meer overgelegd.
  • Strikte toezichthouders verbeterden de naleving maar slechts tot op zekere hoogte.

Interessant is dat het instellen van specifieke persoonlijkheden LLM-gedragingen over GPT-4O en Mistral meer vergelijkbaars latelen. Zonder persoonlijkheden kwamen de AI -agenten in gebreke aan een meer “pessimistisch” wereldbeeld, vaak ervan uitgaande dat ontwikkelaars en toezichthouders niet te goeder trouw zouden handelen.

Dus kan AI AI reguleren?

Kortom: alleen als de omgeving al vertrouwt, transparant en goed geïncentiveerd.

De studie suggereert dat regulatiesystemen die op AI -middelen zelf vertrouwen, de rommeligheid en onvoorspelbaarheid van strategisch gedrag van mens kunnen erven. Het wijst ook op een kritische fout in het idee om governance te automatiseren: AI -systemen zullen de vertrouwensstructuren weerspiegelen van de omgeving waarin ze zijn geplaatst.

Als toezichthouders ondergefinancierd of zwak zijn, of als gebruikers sceptisch zijn, zullen AI -ontwikkelaars, menselijk of niet, waarschijnlijk de hoeken snijden. Uiteindelijk beweren de onderzoekers dat technische oplossingen alleen niet betrouwbare AI -ecosystemen zullen bouwen. Speltheorie laat ons zien dat prikkels, reputaties en transparantie belangrijk zijn. En hun experimenten tonen aan dat zelfs de slimste LLM’s niet aan die dynamiek kunnen ontsnappen.

Hun waarschuwing voor beleidsmakers is duidelijk: regelgeving gaat niet alleen over het schrijven van regels. Het gaat om bouwstructuren waar vertrouwen wordt beloond, handhaving geloofwaardig is en het snijden van hoeken kostbaar is.


Uitgelichte afbeeldingskrediet

Tags: AIverordening

Related Posts

Forrester-analist: AI is er niet in geslaagd de mondiale productiviteit te beïnvloeden

Forrester-analist: AI is er niet in geslaagd de mondiale productiviteit te beïnvloeden

20 januari 2026
Hoe AI in slechts zeven dagen VoidLink-malware bouwde

Hoe AI in slechts zeven dagen VoidLink-malware bouwde

20 januari 2026
OpenAI GPT 5.2 lost het wiskundeprobleem van Erdő in 15 minuten op

OpenAI GPT 5.2 lost het wiskundeprobleem van Erdő in 15 minuten op

19 januari 2026
Appfiguren: De uitgaven voor mobiele apps bereiken een record van 5,8 miljard

Appfiguren: De uitgaven voor mobiele apps bereiken een record van $155,8 miljard

15 januari 2026
Het wereldwijde tekort aan geheugenchips zorgt ervoor dat de pc-prijzen de pan uit rijzen

Het wereldwijde tekort aan geheugenchips zorgt ervoor dat de pc-prijzen de pan uit rijzen

14 januari 2026
Ingenieurs bouwen op sprinkhanen geïnspireerde robots om het leeglopen van de batterij op te lossen

Ingenieurs bouwen op sprinkhanen geïnspireerde robots om het leeglopen van de batterij op te lossen

14 januari 2026

Recent Posts

  • Forrester-analist: AI is er niet in geslaagd de mondiale productiviteit te beïnvloeden
  • Sequoia Capital sluit zich aan bij de financieringsronde van Anthropic ter waarde van $350 miljard
  • TCL wordt eigenaar van 51% van Sony's Bravia TV-merk
  • Adobe lanceert AI-aangedreven Object Mask voor Premiere Pro
  • Netflix schakelt over naar een volledig contant bod op Warner Bros. Discovery

Recent Comments

Geen reacties om weer te geven.
Dataconomy NL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.