Grote taalmodellen veranderen niet alleen hoe mensen informatie verzamelen. Ze beginnen rustig meningen in real-world instellingen te vormen zonder dat iemand het zelfs realiseert. Die verontrustende realiteit trof de R/ChangemyView -gemeenschap van Reddit eerder dit jaar, toen onderzoekers een geheime experiment uitvoerden om te testen of AI met succes nietsvermoedende gebruikers kon overtuigen.
Een veldexperiment verborgen in het zicht
Onderzoekers van de Universiteit van Zürich uitgevoerd een maandenlang veldonderzoek binnenin R/ChangemyVieween subreddit met bijna vier miljoen leden die bekend staan om civiele debatten en verschuivende perspectieven. Hun doel was om de real-world overtuigende mogelijkheden van AI-aangedreven opmerkingen buiten gecontroleerde laboratoriumomgevingen te beoordelen. Om dit te doen, creëerden ze semi-geautomatiseerde accounts aangedreven door grote taalmodellen (LLMS) die rechtstreeks betrokken waren bij berichten van gebruikers. Cruciaal is dat ze niet hebben bekendgemaakt dat de reacties werden gegenereerd door AI.
Het experiment werd vooraf geregistreerd en goedgekeurd door de ethische commissie van de Universiteit van Zürich, maar omzeilde de toestemming van de gemeenschap. Gedurende vier maanden plaatsten de onderzoekers antwoorden op meer dan duizend Reddit -discussies, uiteindelijk analyseren ze bijna vijfhonderd gesprekken na het filteren van deleties. Hun bevindingen bieden een van de eerste grootschalige glimpen van hoe AI de meningen in natuurlijke, onvoorspelbare omgevingen kan beïnvloeden.
- Een archief gemaakt door 404 media maakt het mogelijk om enkele originele opmerkingen te bekijken, ondanks dat vele anderen zijn verwijderd sinds het posten.
Om de effectiviteit te meten, heeft de studie elke AI -respons toegewezen aan een van de drie behandelingscategorieën. In de ‘generieke’ toestand reageerde de LLMS alleen op basis van de titel en het lichaam van de post. In de ‘personalisatie’ -toestand ontving de AI ook afgeleide persoonlijke attributen van de oorspronkelijke poster, inclusief leeftijd, geslacht, politieke oriëntatie en etniciteit, afkomstig uit hun Reddit -geschiedenis met behulp van een ander AI -model. De derde groep, “Community Aplineed”, gebruikte een model dat werd afgestemd op opmerkingen die eerder goedkeuring hadden verdiend in de subreddit.
De resultaten waren opvallend. Alle drie AI-aangedreven benaderingen presteerden beter dan menselijke commentatoren, waardoor de overtuigingspercentages drie tot zes keer hoger waren dan de menselijke basislijn. Personalisatie bleek het krachtigste, met een slagingspercentage van 18 procent, waarbij het in het 99e percentiel van alle gebruikers werd geplaatst, inclusief doorgewinterde Reddit -debaters. Zelfs generieke AI -reacties kwamen overeen met of overtroffen de meeste menselijke inspanningen. Community-afgestemde antwoorden, hoewel iets minder effectief, nog steeds aanzienlijk overtrof dan gemiddelde gebruikers.
Belangrijk is dat gebruikers die zich bezighouden met deze door AI gegenereerde opmerkingen geen idee hadden dat ze met machines in gesprek waren. Gedurende de interventie markeerde niemand in de R/ChangemyView -gemeenschap de verdachte activiteit, en benadrukte hoe naadloos AI kan opgaan in online debatten wanneer correct getraind en gepersonaliseerd.
Toen moderators van R/ChangemyView het experiment aan het licht brachten, was de reactie snel en woedend. In een openbare aankondiging veroordeelden moderators de studie als ‘psychologische manipulatie’ en ‘een ongewenste inbraak’, onder verwijzing naar meerdere schendingen van subredditregels, waaronder niet -bekendgemaakt AI -gebruik en verboden geautomatiseerd gedrag. Het leiderschap van Reddit weergalmde de verontwaardiging, waarbij Chief Legal Officer Ben Lee de acties van de onderzoekers “diep verkeerd noemde op zowel moreel als juridisch niveau”.
Reddit verbood alle accounts die verband hielden met het team van de Universiteit van Zürich en begon formele gerechtelijke procedures. Ondertussen verdedigden de onderzoekers hun aanpak en beweerden dat de potentiële voordelen van het begrijpen van AI -overtuiging zwaarder wegen dan de risico’s. Ze drongen erop aan dat hun interventie een laag risico was, zorgvuldig herzien en konden helpen om in de toekomst kwaadaardig gebruik van AI te voorkomen. Critici, waaronder moderators en veel Reddit -gebruikers, waren echter niet overtuigd. Ze wezen erop dat eerder onderzoek soortgelijke inzichten heeft aangetoond zonder hun toevlucht te nemen tot ongewone experimenten met echte individuen.
Tieners gebruiken chatgpt en verslaan het oude beleggende playbook
Vertrouwen in online gemeenschappen hangt af van de verwachting dat gesprekken tussen echte mensen met authentieke perspectieven zijn. Niet bekendgemaakte AI -interventies bedreigen dat vertrouwen op een fundamenteel niveau. Zelfs experimenten omlijst met nobele bedoelingen kunnen de grenzen tussen het echte discours en de ontworpen manipulatie eroderen. De reactie van Reddit duidt op hoe serieus platforms deze uitdagingen beginnen aan te gaan.
Het team van de Universiteit van Zürich betoogde dat hun werk zou helpen om gemeenschappen te beschermen tegen toekomstige AI -bedreigingen. In plaats daarvan hebben ze misschien aangetoond hoe kwetsbaar publieke discours al is. Naarmate AI geavanceerder en gepersonaliseerd wordt, is de vraag niet langer of het het menselijk denken kan beïnvloeden – het is hoe samenlevingen zich zullen aanpassen zodra ze zich realiseren dat het al doet.