KI NEWS

LinkedIn nutzt deine Daten für KI-Training und Werbung
Ab November verwendet LinkedIn standardmäßig alle Profildaten für KI-Training und Werbung. Wer das nicht möchte, muss in den Einstellungen widersprechen.

WhatsApp startet „Writing Help“: KI schreibt deine Nachrichten
WhatsApp bringt mit Writing Help eine KI-Texthilfe direkt auf die Tastatur. Die neue Funktion korrigiert Texte, schlägt Stile vor und schützt deine Privatsphäre.
Claude hört jetzt mit: Anthropic nutzt deine Chats
Anthropic setzt künftig auch auf Nutzerdaten, um seinen Chatbot Claude zu trainieren. Private Abos sind betroffen, Unternehmens- und Behördenkunden nicht. Nutzer können widersprechen – sonst endet der Zugang.

Meta AI in WhatsApp: Wie du das stille Mitlesen im Chat abschaltest
Seit der Einführung von Meta AI in WhatsApp ist der Chatbot in jedem Chat verfügbar – auch, wenn man ihn nie aktiviert. Doch mit einem unscheinbaren Schalter lässt er sich deaktivieren.

Unternehmen verstärken Sicherheitsmaßnahmen für generative KI-Apps
Eine aktuelle Studie von Netskope Threat Labs zeigt, dass über ein Drittel der sensiblen Daten, die in generativen KI-Apps verarbeitet werden, regulierte Informationen sind. Dies stellt ein erhebliches Risiko für Datenschutzverletzungen dar.

Meta Pausiert KI-Training mit EU-Nutzerdaten: Reaktion auf Regulierungsdruck
Meta stoppt vorerst das KI-Training mit europäischen Nutzerdaten. Erfahre mehr über die Gründe und Auswirkungen dieser Entscheidung im Kontext der DSGVO und regulatorischen Bedenken.
Anonyme Nutzung von KI-Chatbots: DuckDuckGo AI Chat
DuckDuckGo hat eine neue Funktion eingeführt, die es ermöglicht, beliebte KI-Chatbots wie OpenAI's GPT 3.5 Turbo und Claude 3 Haiku anonym zu nutzen. Diese Funktion garantiert deine Privatsphäre, indem alle Chats anonymisiert und deine IP-Adresse entfernt wird. So kannst du sicher und privat KI-Chatbots verwenden, ohne deine Daten preiszugeben.

Meta Nutzt persönliche Daten für KI: Datenschutzbedenken
Meta plant, persönliche Daten ohne Einwilligung der Nutzer zur Schulung seiner KI-Modelle zu verwenden. Dies hat zu scharfer Kritik der Datenschutzorganisation NOYB geführt, die europäische Behörden zum Handeln auffordert.