Een nieuwe studie gepubliceerd in Natuur Menselijk gedrag daagt de heersende veronderstelling uit dat generatieve kunstmatige intelligentie zich consistent gedraagt in verschillende talen, en onthult in plaats daarvan dat grote taalmodellen (LLM’s) verschillende culturele tendensen vertonen, afhankelijk van of ze in het Engels of Chinees worden gevraagd. Onderzoekers Jackson G. Lu en Lu Doris Zhang onderzochten twee belangrijke modellen, OpenAI’s GPT en Baidu’s ERNIE, en ontdekten dat de taal van de prompt effectief de ‘culturele persoonlijkheid’ van de AI verandert, en beïnvloedt hoe deze informatie interpreteert, opties evalueert en strategische aanbevelingen formuleert.
Het onderzoek maakte gebruik van raamwerken uit de culturele psychologie om twee primaire constructen te meten: sociale oriëntatie en cognitieve stijl. Toen ze in het Engels werden gevraagd, vertoonden beide modellen een ‘onafhankelijke’ sociale oriëntatie, waarbij autonomie en zelfsturing werden gewaardeerd, en een ‘analytische’ cognitieve stijl, gekenmerkt door een afhankelijkheid van formele logica en op regels gebaseerd redeneren. Omgekeerd verschoven de modellen, toen ze daartoe in het Chinees werden gevraagd, naar een ‘onderling afhankelijke’ oriëntatie waarbij de nadruk werd gelegd op sociale harmonie en conformiteit, naast een ‘holistische’ cognitieve stijl die prioriteit geeft aan context en relaties boven focusobjecten.
Deze verschillen kwamen tot uiting in praktische bedrijfsscenario’s. Toen hem bijvoorbeeld werd gevraagd het gedrag van een persoon uit te leggen, leidden Engelse prompts ertoe dat de AI acties toeschreef aan de persoonlijkheid van het individu, terwijl Chinese prompts resulteerden in attributies op basis van de sociale context. Bij een marketingtaak gaven de modellen de voorkeur aan slogans die het individuele welzijn benadrukten wanneer ze in het Engels werden bevraagd, maar gaven ze de voorkeur aan slogans die de nadruk legden op het collectieve welzijn wanneer ze in het Chinees werden bevraagd. Het onderzoek merkt op dat het eenvoudigweg vertalen van een in het Engels gegenereerde campagne voor een Chinese markt daarom zou kunnen resulteren in een culturele mismatch die ervoor zorgt dat de berichtgeving niet klopt.
De onderzoekers ontdekten echter dat deze vooroordelen niet onveranderlijk zijn. Door gebruik te maken van ‘culturele aanwijzingen’ – zoals het expliciet instrueren van de AI om het perspectief over te nemen van een gemiddeld persoon die in China woont – konden gebruikers de Engelse reacties van het model opnieuw kalibreren om de onderling afhankelijke en holistische patronen na te bootsen die gewoonlijk in Chinese reacties worden gezien. Om deze verborgen vooroordelen te beheersen, adviseren de auteurs organisatieleiders om taalkeuze als een strategische beslissing te behandelen, prompte talen af te stemmen op de culturele context van de doelgroep en culturele persona-aansporingen te gebruiken om de redenering van de AI naar meer passende inzichten te leiden.





