Claude hört jetzt mit: Anthropic nutzt deine Chats
Das KI-Unternehmen Anthropic hat seine Nutzungsbedingungen angepasst. Künftig dürfen Unterhaltungen mit dem Chatbot Claude für das Training der KI verwendet werden. Nutzerinnen und Nutzer können dieser Praxis allerdings widersprechen.
Bildquelle: Anthropic
Abkehr von bisheriger Praxis
Bislang hatte sich Anthropic von Konkurrenten wie OpenAI oder Google unterschieden, da Nutzerchats nicht ins Training eingeflossen sind. Diese Linie wird nun aufgegeben. Laut Anthropic soll die Auswertung der Chats helfen, die Fähigkeiten von Claude in Bereichen wie Programmierung, Analyse und logischem Denken zu verbessern. Auch die Sicherheit der KI soll dadurch steigen, da Systeme zum Erkennen schädlicher Inhalte optimiert werden können.
Welche Nutzer betroffen sind
Die Änderung betrifft alle privaten Abonnements von Claude. Ausgenommen sind Claude for Work, Claude Gov, Claude for Education sowie die API-Nutzung.
Neue Kundinnen und Kunden können bereits bei der Einrichtung entscheiden, ob sie ihre Chats freigeben wollen. Bestandskunden erhalten eine Benachrichtigung und müssen bis zum 28. September 2025 eine Entscheidung treffen. Ohne Zustimmung oder Ablehnung ist eine weitere Nutzung des Chatbots nicht möglich.
Fünf Jahre Speicherdauer bei Zustimmung
Mit der neuen Regel führt Anthropic eine weitere Änderung ein: Chats werden künftig nicht mehr nur 30 Tage, sondern bis zu fünf Jahre gespeichert – allerdings nur, wenn die Nutzer zugestimmt haben. Diese Regel gilt ausschließlich für neue oder wiederaufgenommene Unterhaltungen.
Gelöschte Chats fließen laut Unternehmen nicht in das Training ein. Zudem verspricht Anthropic, die Daten nicht an Dritte weiterzuverkaufen. Sicherheitsrelevante Inhalte sollen automatisch herausgefiltert werden.
KI WEEKLY
Wöchentliches KI-Wissen kompakt und verständlich — jeden Sonntag in deinem Postfach. Schließe dich 2500+ Abonnenten an!
Jeden Sonntag neu!
Wir respektieren deine Privatsphäre. Abmeldung jederzeit möglich.
Opt-out jederzeit möglich
Nutzerinnen und Nutzer können die Entscheidung zur Weitergabe ihrer Chats jederzeit in den Datenschutzeinstellungen ändern. Wer nicht zustimmt, soll keine funktionalen Nachteile haben, außer dass die Daten nicht für das Training genutzt werden.
Fazit: Mit der Auswertung von Nutzerchats bricht Anthropic mit einer bisherigen Kernpolitik. Das Unternehmen verspricht zwar mehr Sicherheit und bessere Ergebnisse, riskiert aber Kritik von Datenschützern und Nutzern, die sensibel auf längere Speicherdauern reagieren.