OpenAI startet begrenzten Rollout des ‘Advanced Voice Mode’

OpenAI hat mit der begrenzten Einführung des lang erwarteten ‘Advanced Voice Mode’ für zahlende ChatGPT Plus Nutzer begonnen. Diese neue Funktion ermöglicht natürliche, Echtzeit-Konversationen und die Fähigkeit der KI, Emotionen zu erkennen und darauf zu reagieren.

Der ‘Advanced Voice Mode’ wird zunächst nur einer kleinen Gruppe von ChatGPT Plus Nutzern zur Verfügung gestellt. Bis Herbst 2024 sollen alle Plus Nutzer Zugriff darauf erhalten. Diese innovative Funktion nutzt GPT-4o und kann Emotionen in den Stimmen der Nutzer erkennen, einschließlich Traurigkeit, Aufregung oder sogar Gesang. Dies stellt einen bedeutenden Fortschritt in der KI-Interaktion dar, da die Fähigkeit, Emotionen in Echtzeit zu erkennen und zu interpretieren, viele Anwendungsbereiche revolutionieren könnte, von Kundenservice bis hin zur Unterstützung im Bereich der psychischen Gesundheit.

Zusätzlich zu den neuen Sprachfunktionen plant OpenAI auch die Einführung von Video- und Bildschirmfreigabefunktionen, die in einer frühen Demo gezeigt wurden. Diese Funktionen sollen zu einem späteren Zeitpunkt veröffentlicht werden. OpenAI hat den initialen ‘Alpha‘-Nutzern, die für den frühen Zugang ausgewählt wurden, bereits E-Mail-Anweisungen gesendet.

Die Entwicklung des ‘Advanced Voice Mode’ zeigt deutlich, wie KI sich von einem einfachen Textwerkzeug zu einer intelligenten Entität entwickelt, mit der Nutzer interagieren, lernen und wachsen können. Die Fähigkeit der KI, in Echtzeit auf emotionale Signale zu reagieren, könnte eine breite Palette von Anwendungen transformieren und das Nutzererlebnis erheblich verbessern.

Zurück
Zurück

EU-AI Act: Herausforderungen für Unternehmen

Weiter
Weiter

Canva übernimmt Leonardo.Ai: Eine neue Ära der visuellen Kommunikation