Antropisch is uitvoering Nieuwe procedures voor gegevensverwerking en vereisen dat alle Claude -gebruikers tegen 28 september beslissen of hun gesprekken kunnen worden gebruikt voor AI -modeltraining. Het bedrijf heeft vragen gesteld op zijn blogpost over de beleidswijzigingen, maar externe analyses hebben geprobeerd de redenen voor de herzieningen te bepalen.
De kernwijziging omvat antropisch dat nu zijn AI -systemen wil trainen met behulp van gebruikersgesprekken en coderingssessies. Eerder maakte antropisch geen gebruik van chatgegevens voor consumenten voor modeltraining. Nu zal de gegevensbehoud worden uitgebreid tot vijf jaar voor gebruikers die zich niet afmelden voor deze gegevensgebruikovereenkomst. Dit vertegenwoordigt een belangrijke verschuiving van eerdere praktijken.
Voorheen werden gebruikers van de consumentenproducten van Anthropic geïnformeerd dat hun prompts en de resulterende gespreksuitgangen binnen 30 dagen automatisch zouden worden verwijderd uit de back-end-systemen van Anthropic. De uitzondering vond plaats als wettelijke of beleidsvereisten een langere retentieperiode dicteerden of als de input van een gebruiker werd gemarkeerd voor het overtreden van het bedrijfsbeleid. In dergelijke gevallen kunnen gebruikersinvoer en -uitgangen maximaal twee jaar worden bewaard.
Het nieuwe beleid is specifiek van toepassing op gebruikers van Claude Free, Pro en Max, inclusief gebruikers van Claude Code. Zakelijke klanten die Claude Gov, Claude gebruiken voor werk, Claude voor onderwijs of degenen die via zijn API toegang hebben tot het platform, zijn vrijgesteld van deze veranderingen. Dit weerspiegelt een vergelijkbare aanpak van OpenAI, die bedrijfsklanten beschermt tegen het beleid voor gegevenstraining.
Anthropic omlijstte de verandering door te stellen dat gebruikers die zich niet aanmelden, zullen ons helpen de modelveiligheid te verbeteren, waardoor onze systemen voor het detecteren van schadelijke inhoud nauwkeuriger worden en minder kans krijgen om onschadelijke gesprekken te markeren. ” Het bedrijf voegde eraan toe dat deze gegevens “ook toekomstige Claude -modellen zullen helpen verbeteren bij vaardigheden zoals codering, analyse en redeneren, wat uiteindelijk leidt tot betere modellen voor alle gebruikers.”
Deze framing biedt de beleidsverandering als een samenwerkingsinspanning om het AI -model te verbeteren. Externe analyse suggereert echter dat de onderliggende motivatie complexer is, geworteld in concurrerende druk binnen de AI -industrie. Namelijk, antropisch, zoals andere grote taalmodelbedrijven, vereist substantiële gegevens om zijn AI -modellen effectief te trainen. Toegang tot miljoenen claude-interacties zou de real-world inhoud bieden die nodig is om de positie van Anthropic tegen concurrenten zoals Openai en Google te verbeteren.
De beleidsherzieningen weerspiegelen ook bredere trends in de industrie met betrekking tot het gegevensbeleid. Bedrijven zoals antropisch en Openai worden geconfronteerd met een toenemend onderzoek met betrekking tot hun gegevensbehoudpraktijken. OpenAI, bijvoorbeeld, betwist momenteel een gerechtelijk bevel dat het bedrijf dwingt om voor onbepaalde tijd alle gesprekken voor consumentenchatgpt te behouden, inclusief verwijderde chats. Deze bestelling komt voort uit een rechtszaak aangespannen door de New York Times en andere uitgevers.
In juni beschreef Openai COO Brad Lightcap het gerechtelijk bevel als “een ingrijpende en onnodige eis” dat “fundamenteel in strijd is met de privacyverplichtingen die we aan onze gebruikers hebben gedaan.” Het gerechtelijk bevel heeft chatgpt gratis, plus Pro- en teamgebruikers. Enterprise -klanten en mensen met nul data -retentie -overeenkomsten blijven onaangetast.
De frequente wijzigingen in het gebruiksbeleid hebben verwarring onder gebruikers gegenereerd. Veel gebruikers blijven zich niet bewust van dit evoluerende beleid. Het snelle tempo van technologische vooruitgang betekent dat het privacybeleid onderhevig is aan verandering. Wijzigingen worden vaak kort gecommuniceerd te midden van andere aankondigingen van het bedrijf.
Anthropic’s implementatie van haar nieuwe beleid volgt op een patroon dat bezorgdheid over gebruikersbewustzijn roept. Nieuwe gebruikers kunnen hun voorkeur tijdens het aanmeldingsproces selecteren. Bestaande gebruikers krijgen echter een pop-upvenster gepresenteerd met het label “Updates voor consumententermen en -beleid” in grote tekst, vergezeld van een prominente zwarte “Accept” -knop. Een kleinere schakelaarschakelaar voor trainingsrechten bevindt zich hieronder, in kleinere afdrukken, en wordt automatisch ingesteld op de “ON” -positie.
Het ontwerp roept bezorgdheid uit dat gebruikers snel kunnen klikken op ‘accepteren’ zonder zich volledig te realiseren dat ze akkoord gaan met het delen van gegevens. Deze observatie werd aanvankelijk gerapporteerd door de Verge. De inzet voor gebruikersbewustzijn is belangrijk. Experts hebben consequent gewaarschuwd dat de complexiteit rond AI het verkrijgen van een zinvolle gebruikersstaat moeilijk maakt.
De Federal Trade Commission (FTC) is eerder tussenbeide gekomen in deze zaken. De FTC waarschuwde AI -bedrijven tegen “heimelijk veranderende servicevoorwaarden of privacybeleid, of het begraven van een openbaarmaking achter hyperlinks, in Legalese of in kleine lettertjes.” Deze waarschuwing suggereert een potentieel conflict met praktijken die mogelijk niet voldoende gebruikersbewustzijn of toestemming bieden.
Het huidige niveau van FTC -toezicht op deze praktijken blijft onzeker. De Commissie is momenteel actief met slechts drie van haar vijf commissarissen. Er is een onderzoek ingediend bij de FTC om te bepalen of deze praktijken momenteel worden beoordeeld.