Claude hört jetzt mit: Anthropic nutzt deine Chats

Das KI-Unternehmen Anthropic hat seine Nutzungsbedingungen angepasst. Künftig dürfen Unterhaltungen mit dem Chatbot Claude für das Training der KI verwendet werden. Nutzerinnen und Nutzer können dieser Praxis allerdings widersprechen.

anthropic speichert chats

Bildquelle: Anthropic

Abkehr von bisheriger Praxis

Bislang hatte sich Anthropic von Konkurrenten wie OpenAI oder Google unterschieden, da Nutzerchats nicht ins Training eingeflossen sind. Diese Linie wird nun aufgegeben. Laut Anthropic soll die Auswertung der Chats helfen, die Fähigkeiten von Claude in Bereichen wie Programmierung, Analyse und logischem Denken zu verbessern. Auch die Sicherheit der KI soll dadurch steigen, da Systeme zum Erkennen schädlicher Inhalte optimiert werden können.

Welche Nutzer betroffen sind

Die Änderung betrifft alle privaten Abonnements von Claude. Ausgenommen sind Claude for Work, Claude Gov, Claude for Education sowie die API-Nutzung.

Neue Kundinnen und Kunden können bereits bei der Einrichtung entscheiden, ob sie ihre Chats freigeben wollen. Bestandskunden erhalten eine Benachrichtigung und müssen bis zum 28. September 2025 eine Entscheidung treffen. Ohne Zustimmung oder Ablehnung ist eine weitere Nutzung des Chatbots nicht möglich.

Fünf Jahre Speicherdauer bei Zustimmung

Mit der neuen Regel führt Anthropic eine weitere Änderung ein: Chats werden künftig nicht mehr nur 30 Tage, sondern bis zu fünf Jahre gespeichert – allerdings nur, wenn die Nutzer zugestimmt haben. Diese Regel gilt ausschließlich für neue oder wiederaufgenommene Unterhaltungen.

Gelöschte Chats fließen laut Unternehmen nicht in das Training ein. Zudem verspricht Anthropic, die Daten nicht an Dritte weiterzuverkaufen. Sicherheitsrelevante Inhalte sollen automatisch herausgefiltert werden.

KI WEEKLY

Wöchentliches KI-Wissen kompakt und verständlich — jeden Sonntag in deinem Postfach. Schließe dich 2500+ Abonnenten an!

Jeden Sonntag neu!

Opt-out jederzeit möglich

Nutzerinnen und Nutzer können die Entscheidung zur Weitergabe ihrer Chats jederzeit in den Datenschutzeinstellungen ändern. Wer nicht zustimmt, soll keine funktionalen Nachteile haben, außer dass die Daten nicht für das Training genutzt werden.

Fazit: Mit der Auswertung von Nutzerchats bricht Anthropic mit einer bisherigen Kernpolitik. Das Unternehmen verspricht zwar mehr Sicherheit und bessere Ergebnisse, riskiert aber Kritik von Datenschützern und Nutzern, die sensibel auf längere Speicherdauern reagieren.

Zurück
Zurück

Volkswagen verlängert AWS-Partnerschaft: Mehr KI für die Fabrik der Zukunft

Weiter
Weiter

Alibaba entwickelt eigenen KI-Chip