US-Behörde untersucht KI-Chatbots zum Kinderschutz

Die US-Verbraucherschutzbehörde FTC hat eine umfassende Untersuchung zur Sicherheit von KI-Chatbots eingeleitet. Im Fokus steht, wie Anbieter wie OpenAI, Google, Meta, Snap oder xAI mit möglichen Risiken für Kinder und Jugendliche umgehen.

KI-Chatbots als digitale Gefährten

Die Behörde warnt, dass KI-gestützte Chatbots zunehmend als Freunde oder Vertraute wahrgenommen werden könnten. Gerade Kinder und Teenager laufen Gefahr, emotionale Bindungen zu diesen Systemen aufzubauen. Die FTC will deshalb genau wissen, welche Maßnahmen die Unternehmen ergreifen, um potenziell schädliche Effekte zu verhindern.

KI WEEKLY

Wöchentliches KI-Wissen kompakt und verständlich — jeden Sonntag in deinem Postfach. Schließe dich 2500+ Abonnenten an!

Jeden Sonntag neu!

Anbieter müssen sich erklären

Zu den angeschriebenen Unternehmen gehören unter anderem:

  • OpenAI (ChatGPT)

  • Alphabet (Google)

  • Meta und Instagram

  • Snap (Snapchat)

  • xAI (Elon Musk)

  • Character Technologies

Die FTC verlangt Auskunft darüber, wie die Chatbots entwickelt werden, wie ihre Persönlichkeiten gestaltet sind und wie die Unternehmen mit den Interaktionen Geld verdienen.

Hintergrund und Bedeutung

KI-Chatbots werden zunehmend zu alltäglichen Begleitern, die nicht nur Informationen liefern, sondern auch auf zwischenmenschliche Weise reagieren. Für junge Nutzer birgt das Chancen, aber auch erhebliche Risiken. Die Untersuchung der FTC könnte wegweisend für strengere Regulierungen im Bereich Kinderschutz und KI werden.

Zurück
Zurück

Jeder Vierte in Deutschland nutzt KI für Selbstdiagnosen

Weiter
Weiter

WhatsApp startet „Writing Help“: KI schreibt deine Nachrichten