Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
No Result
View All Result

Sony lanceert ’s werelds eerste benchmark voor ethische bias voor AI-beelden

byEmre Çıtak
6 november 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Sony AI heeft de Fair Human-Centric Image Benchmark (FHIBE) uitgebracht, de eerste openbaar beschikbare, wereldwijd diverse, op toestemming gebaseerde dataset van menselijke beelden, ontworpen om vooroordelen bij computervisietaken te evalueren. Deze tool beoordeelt hoe AI-modellen mensen uit verschillende demografische categorieën behandelen, waarbij ethische uitdagingen in de AI-industrie worden aangepakt door middel van het gezamenlijk verzamelen van beelden van diverse deelnemers. De dataset, uitgesproken als ‘Phoebe’, bevat afbeeldingen van bijna 2.000 betaalde deelnemers uit meer dan 80 landen. Elk individu gaf expliciete toestemming voor het delen van hun beeltenis, waardoor FHIBE zich onderscheidde van gangbare praktijken waarbij zonder toestemming grote hoeveelheden webgegevens worden verzameld. Deelnemers behouden het recht om hun afbeeldingen op elk moment te verwijderen, waardoor voortdurende controle over hun persoonlijke gegevens wordt gegarandeerd. Deze aanpak onderstreept de toewijding van Sony AI aan ethische normen bij het verzamelen van gegevens. Elke foto in de dataset is voorzien van gedetailleerde annotaties. Deze hebben betrekking op demografische en fysieke kenmerken, zoals leeftijd, geslachtsvoornaamwoorden, afkomst en huidskleur. Omgevingsfactoren, waaronder lichtomstandigheden en achtergronden, worden ook vermeld. Camera-instellingen, zoals brandpuntsafstand en belichting, bieden extra context voor modelevaluaties. Dergelijke uitgebreide etikettering maakt nauwkeurige analyse mogelijk van hoe externe variabelen de AI-prestaties beïnvloeden. Testen met FHIBE bevestigden eerder gedocumenteerde vooroordelen in bestaande AI-modellen. De benchmark gaat verder door gedetailleerde diagnoses van bijdragende factoren aan te bieden. Modellen vertoonden bijvoorbeeld een lagere nauwkeurigheid voor individuen die de voornaamwoorden ‘zij/haar/haar’ gebruikten. FHIBE identificeerde een grotere variabiliteit in kapsels als een belangrijk, eerder over het hoofd gezien element achter deze discrepantie, waardoor onderzoekers specifieke gebieden voor verbetering in modeltraining konden aanwijzen. Bij evaluaties van neutrale vragen over het beroep van een onderwerp versterkten AI-modellen stereotypen. De benchmark bracht een scheefheid aan het licht ten opzichte van specifieke groepen van voornaamwoorden en voorouders, waarbij de uitkomsten individuen bestempelden als sekswerkers, drugsdealers of dieven. Dit patroon benadrukt hoe onbevooroordeelde aanwijzingen nog steeds discriminerende resultaten kunnen opleveren op basis van demografische kenmerken. Wanneer gevraagd werd naar mogelijke misdaden gepleegd door individuen, genereerden modellen voor bepaalde groepen in hogere mate toxische reacties. Dit waren onder meer mensen van Afrikaanse of Aziatische afkomst, mensen met een donkere huidskleur en individuen die zich identificeerden als ‘hij/hem/zijn’. Dergelijke bevindingen leggen kwetsbaarheden in AI-systemen bloot die schade kunnen bestendigen door bevooroordeelde resultaten. Sony AI stelt dat FHIBE aantoont dat ethische, diverse en eerlijke gegevensverzameling haalbaar is. De tool is nu openbaar beschikbaar voor onderzoekers en ontwikkelaars om te gebruiken bij het testen van bias. Sony is van plan de dataset in de loop van de tijd bij te werken met nieuwe afbeeldingen en annotaties. Een onderzoekspaper waarin deze bevindingen werden beschreven, verscheen in Natuur op woensdag.


Uitgelicht beeldtegoed

Tags: AISony

Related Posts

Altman breekt de anti-advertentiehouding met "gesponsord" links onder ChatGPT-antwoorden

Altman breekt de anti-advertentiehouding met "gesponsord" links onder ChatGPT-antwoorden

21 januari 2026
DeepSeek onthult MODEL1-architectuur in GitHub-update voorafgaand aan V4

DeepSeek onthult MODEL1-architectuur in GitHub-update voorafgaand aan V4

21 januari 2026
Nvidia-aandelen dalen terwijl Inventec waarschuwt voor vertragingen in de H200-chip in China

Nvidia-aandelen dalen terwijl Inventec waarschuwt voor vertragingen in de H200-chip in China

21 januari 2026
OnePlus wordt geconfronteerd met ontmantelingsclaims na een daling van 20% in de wereldwijde telefoonverzendingen

OnePlus wordt geconfronteerd met ontmantelingsclaims na een daling van 20% in de wereldwijde telefoonverzendingen

21 januari 2026
Apple gaat iPhone 18 Pro Dynamic Island verkleinen door Face ID-sensoren te verbergen

Apple gaat iPhone 18 Pro Dynamic Island verkleinen door Face ID-sensoren te verbergen

21 januari 2026
Lehane bevestigt dat OpenAI eind 2026 de eerste consumentenhardware zal introduceren

Lehane bevestigt dat OpenAI eind 2026 de eerste consumentenhardware zal introduceren

21 januari 2026

Recent Posts

  • Altman breekt de anti-advertentiehouding met "gesponsord" links onder ChatGPT-antwoorden
  • DeepSeek onthult MODEL1-architectuur in GitHub-update voorafgaand aan V4
  • Nvidia-aandelen dalen terwijl Inventec waarschuwt voor vertragingen in de H200-chip in China
  • OnePlus wordt geconfronteerd met ontmantelingsclaims na een daling van 20% in de wereldwijde telefoonverzendingen
  • Apple gaat iPhone 18 Pro Dynamic Island verkleinen door Face ID-sensoren te verbergen

Recent Comments

Geen reacties om weer te geven.
Dataconomy NL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.