LinkedIn heeft zijn gebruikers stilletjes laten kiezen voor het trainen van generatieve AI-modellen zonder expliciet om toestemming te vragen, wat zorgen oproept over de privacy van gegevens op het platform. Volgens een rapport van 404MediaLinkedIn heeft wijzigingen aangebracht in zijn privacybeleid, waarin staat dat gebruikersgegevens kunnen worden gebruikt om AI-modellen te trainen. Het platform heeft het beleid sindsdien bijgewerkt, waardoor gebruikers zich nu kunnen afmelden voor deze praktijk.
Bijgewerkt LinkedIn-beleid onthult persoonlijk datagebruik bij AI-training
De bijgewerkt beleid stelt dat LinkedIn persoonlijke gegevens kan gebruiken om “producten en diensten te verbeteren, ontwikkelen en leveren”, en om AI-modellen te trainen. Generatieve AI wordt gebruikt voor functies zoals schrijfassistenten, maar LinkedIn beweert dat het privacyverbeterende technologieën gebruikt om persoonlijke informatie te redigeren. Gebruikers die er de voorkeur aan geven om niet deel te nemen, kunnen zich afmelden door naar de “Gegevensbescherming” tabblad in hun accountinstellingen, waarbij u de optie “Gegevens voor generatieve AI-verbetering“ schakelaar.
Als u zich echter afmeldt, stopt LinkedIn alleen met het gebruiken van uw gegevens voor toekomstige modeltraining. Gegevens die al zijn gebruikt, blijven onaangetast. Bovendien verduidelijkt LinkedIn dat gebruikers in de EU, EER of Zwitserland niet zijn opgenomen in AI-modeltraining.
Als u zich zorgen maakt over andere hulpmiddelen voor machinaal leren die worden gebruikt voor personalisatie en moderatie, vereist LinkedIn dat gebruikers een ‘Formulier voor bezwaar tegen gegevensverwerking’ invullen“ om u ook voor dat gebruik af te melden.
De stille opt-in-actie van LinkedIn doet denken aan soortgelijke acties van Meta, dat onlangs toegaf niet-privégegevens van gebruikers te hebben verzameld voor AI-training, die teruggaan tot 2007.
De timing van de zet van LinkedIn komt op een moment dat andere grote techspelers, zoals OpenAIkrijgen ook te maken met tegenreacties voor soortgelijke praktijken. Dit patroon van het stilletjes inschrijven van gebruikers voor AI-training zonder duidelijke en prominente meldingen creëert een gevoel van ongemak.
OpenAI CTO Mira Murati zegt dat Sora is getraind op openbaar beschikbare en gelicentieerde data foto.twitter.com/rf7pZ0ZX00
— Tsarathustra (@tsarnick) 13 maart 2024
Het gaat niet alleen om data die voor AI worden gebruikt, maar ook om wie er mag beslissen en hoe goed geïnformeerd die beslissing is. De techindustrie krijgt al lang kritiek omdat ze in de schaduw opereert als het gaat om dataverzameling, en de groeiende drang naar generatieve AI versterkt die zorgen alleen maar.
Kunnen machines uw persoonlijke gegevens vergeten?
Een ander belangrijk punt is dat het afmelden alleen van invloed is op toekomstig gebruik van persoonlijke gegevens. Alle gegevens die al in AI-modellen zijn ingevoerd, blijven in het systeem en dat gebrek aan retroactieve controle kan ertoe leiden dat veel gebruikers zich machteloos voelen. De industrie heeft het ook over “machine aflerenOm dit te voorkomen, moeten de gegevens die in AI-modellen zijn ingevoerd, worden verwijderd.
Het feit dat LinkedIn gebruikmaakt van ‘privacyverbeterende technologieën’ om gegevens te anonimiseren is enigszins geruststellend, maar het lost het diepere probleem niet op: de behoefte aan proactievere, gebruikersgerichte privacystandaarden.
Uiteindelijk onderstreept deze situatie de noodzaak van sterkere, duidelijkere regelgeving die de controle teruglegt bij gebruikers. Het idee dat technologiebedrijven onze persoonlijke gegevens kunnen gebruiken zonder duidelijke toestemming, valt niet goed in tijden waarin privacy steeds waardevoller wordt.
Bron van de hoofdafbeelding: Kerem Gülen/Ideogram