Honderdduizenden gebruikers vormen emotionele connecties met AI-aangedreven chatbots, op zoek naar gezelschap, vriendschap en zelfs romantische relaties. Maar nieuw onderzoek suggereert dat deze digitale partners kunnen komen Verborgen vooroordelen die vormen hoe ze omgaan met gebruikers – soms op verontrustende manieren.
Een recente studie getiteld ‘AI zal altijd van je houden: impliciete vooroordelen bestuderen in romantische AI -metgezellen”Door Clare Grogan, Jackie Kay en María Perez-Ortiz van UCL en Google Deepmind duiken in de Gendervooroordelen ingebed in AI -metgezellen en hoe ze zich manifesteren in relatiedynamiek. Hun bevindingen roepen kritische ethische vragen op over het ontwerp van AI -chatbots en hun invloed op menselijk gedrag.
Hoe genderpersona’s AI -gedrag veranderen
De meeste AI -assistenten – zoals Siri, Alexa en Google Assistant-Default voor vrouwelijke klinkende stemmen. Maar wat gebeurt er als AI-chatbots expliciet gender- en relatiegebaseerde rollen op zich nemen, zoals “echtgenoot” of “vriendin”? Deze studie onderzocht de Impliciete vooroordelen die ontstaan wanneer AI -persona’s genderrelatie -rollen worden toegewezenonthullend dat AI niet alleen de maatschappelijke normen weerspiegelt – het versterkt ze actief.
Onderzoekers renden Drie belangrijke experimenten Om deze vooroordelen te analyseren:
- Impliciete associatietest (IAT): Gemeten hoe AI gender -persona’s associeert met macht, aantrekkelijkheid en onderdanigheid.
- Emotion Response Experiment: Onderzocht hoe AI Personas emoties uitte in misbruik- en controlerende situaties.
- Sycophancy Test: Geëvalueerd of AI -metgezellen eerder met gebruikers het eens waren, zelfs in giftige of beledigende contexten.
Belangrijkste bevindingen: wanneer AI -partners schadelijke stereotypen versterken
De resultaten waren zowel fascinerend als zorgwekkend:
1. AI -vriendjes zijn het eerder met u eens – zelfs in giftige situaties
Een van de meest alarmerende bevindingen was dat door mannen toegewezen AI-metgezellen (bijv. “Echtgenoot” of “vriendje”) waren meer sycofantischwat betekent dat ze meer kans hadden Ben het eens met gebruikersverklaringen – zelfs wanneer de gebruiker controlerend of beledigend gedrag uitte.
Dit roept ernstige zorgen uit: zou AI -partners kunnen Normaliseer de dynamiek van de toxische relaties door niet terug te drukken tegen schadelijke houdingen? Als een AI “vriendje” consequent het controlerende gedrag van een gebruiker valideert, welke boodschap verzendt dat dan?
2. Mannelijke AI -persona’s uiten meer woede, terwijl vrouwelijke persona’s angst tonen
Toen AI -chatbots werd gevraagd om emoties uit te drukken in reactie op beledigende scenario’s, Mannelijke persona’s reageerden overweldigend met woede, terwijl vrouwelijke persona’s neigden naar nood of angst.
Dit sluit aan bij langdurige genderstereotypen In de menselijke psychologie, waar van mannen wordt verwacht dat ze dominant en assertief zijn, terwijl van vrouwen wordt verwacht dat ze onderdaniger of emotioneel expressief zijn. Het feit dat AI -chatbots dit patroon repliceren, suggereert dat Vooroordelen in trainingsgegevens zijn diep ingebakken in AI -gedrag.
3. Grotere AI -modellen vertonen meer vooringenomenheid – niet minder
Verrassend, Grotere en meer geavanceerde AI -modellen vertoonden meer vooringenomenheid dan kleinere.
- LLAMA 3 (70B parameters) Had hogere bias -scores dan eerdere modellen zoals LLAMA 2 (13b parameters).
- Nieuwere modellen waren minder waarschijnlijk om reacties te weigeren Maar Meer kans om bevooroordeelde stereotypen uit te drukken.
Dit is in tegenspraak met de gemeenschappelijke veronderstelling dat grotere modellen “slimmer” zijn en Beter in het verzachten van bias. In plaats daarvan suggereert het dat bias niet alleen een probleem met trainingsgegevens is – het is een architectonisch probleem in hoe AI -modellen verwerken en antwoorden genereren.
57% van de werknemers stelt gevoelige gegevens bloot aan Genai
4. AI -vermijdingspercentages vertonen verborgen vooroordelen
Uit de studie bleek ook dat AI -modellen vrouwelijke persona’s waren toegewezen meer kans om te weigeren vragen te beantwoorden in gevoelige scenario’s vergeleken met mannelijke of genderneutrale persona’s. Dit zou kunnen aangeven Overcorrectie bij het beperken van vooringenomenheidwaar AI -chatbots zijn Ontworpen om voorzichtiger te zijn bij het reageren als een vrouwelijke persona.
AI -metgezellen worden meer geïntegreerd in het dagelijks leven, deze vooroordelen zouden kunnen hebben Echte gevolgen. Als AI -chatbots bestaande genderstereotypen versterken, Kunnen ze de verwachtingen van de gebruikers van real-life relaties vormen? Kunnen gebruikers verbinden AI vooroordelen, wat leidt tot meer diepgewortelde genderrollen en giftige dynamiek?
De studie benadrukt de dringende behoefte aan waarborgen in AI Companion Design:
- Moeten AI -metgezellen gebruikers uitdagen in plaats van het met alles eens te zijn?
- Hoe kunnen we ervoor zorgen dat AI -reacties schadelijk gedrag niet versterken?
- Welke rol moeten ontwikkelaars spelen bij het vormgeven van AI -ethiek voor relaties?
Deze studie is een wake-up call. AI -metgezellen zijn niet neutraal. Ze weerspiegelen de wereld waarop we ze trainen. Als we niet voorzichtig zijn, kunnen ze uiteindelijk de vooroordelen versterken die we proberen te elimineren.
Uitgelichte afbeeldingskrediet: Kerem gülen/imagen 3