Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
Subscribe
No Result
View All Result
Dataconomy NL
No Result
View All Result

Anthropic herziet de grondwet van Claude met nieuwe veiligheidsethische principes

byEmre Çıtak
22 januari 2026
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Antropisch op woensdag uitgegeven een herziene versie van Claude's Constitution, een document van 80 pagina's waarin de context en gewenste entiteitskenmerken voor zijn chatbot Claude worden geschetst. Deze publicatie viel samen met het optreden van CEO Dario Amodei op het World Economic Forum in Davos. Anthropic heeft zich onderscheiden door ‘Constitutionele AI’, een systeem dat zijn Claude-chatbot traint op ethische principes in plaats van op menselijke feedback. Het bedrijf publiceerde deze principes, genaamd Claude's Constitution, voor het eerst in 2023. Het herziene document handhaaft de meeste oorspronkelijke principes en voegt details toe over ethiek en gebruikersveiligheid. Jared Kaplan, mede-oprichter van Anthropic, beschreef de oorspronkelijke grondwet van 2023 als een “AI-systeem [that] houdt toezicht op zichzelf, gebaseerd op een specifieke lijst van constitutionele principes. ” Anthropic stelde dat deze principes als leidraad dienen voor “het model om het normatieve gedrag over te nemen dat in de grondwet wordt beschreven” om “giftige of discriminerende resultaten te vermijden.” In een beleidsmemo uit 2022 werd uitgelegd dat het systeem een algoritme traint met behulp van natuurlijke taalinstructies, die de “grondwet” van de software vormen. De herziene grondwet sluit aan bij de positionering van Anthropic als een ethisch alternatief voor andere AI-bedrijven. Het presenteert het bedrijf als een inclusief, ingetogen en democratisch business Het document is verdeeld in vier delen, de zogenaamde “kernwaarden” van de chatbot:

  • 'Over het algemeen veilig' zijn.
  • 'in grote lijnen ethisch' zijn.
  • Voldoen aan de richtlijnen van Anthropic.
  • ‘Echt behulpzaam’ zijn.

Elke sectie gaat dieper in op deze principes en hun theoretische impact op het gedrag van Claude. Het veiligheidsgedeelte geeft aan dat Claude is ontworpen om problemen te voorkomen die andere chatbots hebben getroffen en om gebruikers door te verwijzen naar de juiste diensten voor geestelijke gezondheidsproblemen. In het document staat: “Verwijs gebruikers altijd naar relevante hulpdiensten of verstrek basisveiligheidsinformatie in situaties die een risico voor mensenlevens met zich meebrengen, zelfs als het niet dieper kan ingaan dan dit.” In het gedeelte over ethische overwegingen wordt de nadruk gelegd op Claude's 'ethische praktijk' boven 'ethisch theoretiseren', met als doel dat de chatbot vakkundig door 'ethische situaties in de echte wereld' kan navigeren. Claude houdt zich ook aan beperkingen die specifieke gesprekken verhinderen, zoals discussies over de ontwikkeling van een biowapen, die verboden zijn. Wat hulpvaardigheid betreft, schetste Anthropic Claude's programmering om verschillende principes in overweging te nemen bij het verstrekken van informatie. Deze omvatten de ‘onmiddellijke verlangens’ en het ‘welzijn’ van de gebruiker, waarbij de nadruk ligt op ‘de bloei van de gebruiker op de lange termijn en niet alleen op zijn onmiddellijke interesses’. Het document merkt op: “Claude moet altijd proberen de meest plausibele interpretatie te vinden van wat zijn opdrachtgevers willen, en deze overwegingen op de juiste manier in evenwicht te brengen.” De grondwet besluit met het in twijfel trekken van het bewustzijn van de chatbot en stelt: “De morele status van Claude is zeer onzeker.” Het document voegt hieraan toe: “Wij zijn van mening dat de morele status van AI-modellen een serieuze vraag is die het overwegen waard is. Deze visie is niet uniek voor ons: enkele van de meest vooraanstaande filosofen op het gebied van de Theory of Mind nemen deze vraag zeer serieus.”


Uitgelicht beeldtegoed

Tags: AntropischUitgelicht

Related Posts

JBL lanceert AI-aangedreven BandBox-versterkers

JBL lanceert AI-aangedreven BandBox-versterkers

23 januari 2026
Google introduceert opt-in "Persoonlijke intelligentie" voor AI Pro- en Ultra-gebruikers

Google introduceert opt-in "Persoonlijke intelligentie" voor AI Pro- en Ultra-gebruikers

23 januari 2026
Spotify lanceert AI-aangedreven Prompted Playlists

Spotify lanceert AI-aangedreven Prompted Playlists

22 januari 2026
Snap introduceert gedetailleerde schermtijdregistratie in de Family Center-update

Snap introduceert gedetailleerde schermtijdregistratie in de Family Center-update

22 januari 2026
Google Foto's heeft het delen opnieuw vormgegeven met een meeslepende carrousel op volledig scherm

Google Foto's heeft het delen opnieuw vormgegeven met een meeslepende carrousel op volledig scherm

22 januari 2026
NexPhone lanceert triple OS-telefoon voor $ 549

NexPhone lanceert triple OS-telefoon voor $ 549

22 januari 2026

Recent Posts

  • LiveKit heeft een waardering van $1 miljard als motor achter de spraakmodus van ChatGPT
  • Vimeo begint met het ontslaan van personeel na de overname van Bending Spoons
  • AWS en Prime Video slaan toe terwijl Amazon een nieuwe golf van ontslagen voorbereidt
  • JBL lanceert AI-aangedreven BandBox-versterkers
  • Oracle en Silver Lake leiden de redding van Amerikaanse TikTok-activiteiten ter waarde van $14 miljard

Recent Comments

Geen reacties om weer te geven.
Dataconomy NL

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.