OpenAI startet Training eines neuen Flaggschiff-KI-Modells

OpenAI hat kürzlich bekannt gegeben, dass es mit dem Training eines neuen Flaggschiff-KI-Modells begonnen hat, das den aktuellen GPT-4-Standard weit übertreffen soll. Dieser Artikel gibt einen umfassenden Überblick über die neuesten Entwicklungen bei OpenAI, einschließlich der Einrichtung eines neuen Sicherheitskomitees und der Herausforderungen, denen das Unternehmen gegenübersteht.

Während OpenAI das neue Modell trainiert, wird das neue Sicherheitskomitee daran arbeiten, die Richtlinien und Prozesse zum Schutz der Technologie zu verbessern, so das Unternehmen. Bildquelle: Jason Redmond/Agence France-Presse - Getty Images

Fortschrittliche KI-Entwicklung bei OpenAI

Von GPT-4 über GPT-5 zu AGI

OpenAI hat sich das ehrgeizige Ziel gesetzt, „artificial general intelligence“ (AGI) zu entwickeln – eine Maschine, die alles tun kann, was das menschliche Gehirn leisten kann. Das neue Modell - wahrscheinlich GPT-5 - wird erwartet, die nächste Stufe der KI-Fähigkeiten zu erreichen und als Grundlage für verschiedene KI-Produkte zu dienen, darunter Chatbots, digitale Assistenten und eine neue Generation an Suchmaschinen und Bildgeneratoren.

GPT-4 und seine Erweiterungen

GPT-4, veröffentlicht im März 2023, hat bereits beeindruckende Fähigkeiten gezeigt, wie das Beantworten von Fragen, das Schreiben von E-Mails, das Erstellen von Hausarbeiten und das Analysieren von Daten. Die neue erweiterte Version, GPT-4o, kann auch Bilder erzeugen und verstehen und in einer sehr menschenähnlichen Stimme auf Fragen und Befehle reagieren.

Kontroversen und rechtliche Herausforderungen

Nach der Veröffentlichung von GPT-4o kam es zu einer Kontroverse, als Schauspielerin Scarlett Johansson behauptete, dass die KI ihre Stimme ohne Erlaubnis nutzte. OpenAI wies diese Behauptung zurück und betonte, dass die Stimme nicht Johansson gehöre. Zusätzlich sieht sich OpenAI rechtlichen Herausforderungen gegenüber, wie die Klage der New York Times wegen Urheberrechtsverletzungen im Dezember.

Sicherheitsmaßnahmen und interne Herausforderungen

Neues Sicherheitskomitee

Um den Risiken neuer KI-Modelle zu begegnen, hat OpenAI ein neues Sicherheits- und Schutzkomitee eingerichtet. Dieses Komitee besteht aus CEO Sam Altman und den Vorstandsmitgliedern Bret Taylor, Adam D’Angelo und Nicole Seligman. Ziel ist es, Richtlinien und Prozesse zu entwickeln, um die Technologie sicherer zu machen. Diese Maßnahmen sollen bis zum Spätsommer oder Herbst umgesetzt werden.

OpenAI Website

Auflösung des Superalignment-Teams

Das ursprüngliche Superalignment-Team, das sich auf die Kontrolle und Überwachung einer zukünftigen Superintelligenz konzentrierte, wurde aufgelöst. Dies führte zu erheblichen internen Spannungen und Kritik an den Sicherheitsmaßnahmen von OpenAI, insbesondere an der Unternehmensführung von OpenAI. Dr. Ilya Sutskever, Mitbegründer und Leiter des Teams, verließ das Unternehmen, ebenso wie Jan Leike, was die Zukunft des Teams in Frage stellte.

Integration in größere Sicherheitsbemühungen

Die langfristige KI-Sicherheitsforschung wurde in größere Anstrengungen integriert, um die Sicherheit der Technologien zu gewährleisten. John Schulman, ein weiterer Mitbegründer, leitet diese Arbeit. Das neue Sicherheitskomitee wird Dr. Schulmans Forschung überwachen und Leitlinien für den Umgang mit technologischen Risiken bereitstellen.

Zukünftige Entwicklungen und Herausforderungen

Zeitplan und Erwartungen

Das Training eines neuen KI-Modells kann Monate oder sogar Jahre dauern. Nach Abschluss des Trainings werden weitere Monate für das Testen und Feinabstimmen der Technologie benötigt. Daher könnte das nächste Modell von OpenAI erst in neun Monaten bis zu einem Jahr oder länger verfügbar sein.

Kritische Diskussionen und externe Erwartungen

OpenAI begrüßt eine „robuste Debatte“ über die Entwicklung und den Einsatz von KI. Das Unternehmen steht unter Druck, sowohl die technologische Entwicklung voranzutreiben als auch Kritiker zu beruhigen, die die zunehmenden Gefahren der KI-Technologie anprangern. Experten sind sich uneinig darüber, wann AGI erreicht werden könnte, doch Unternehmen wie OpenAI, Google, Meta und Microsoft steigern kontinuierlich die Leistungsfähigkeit ihrer KI-Technologien.

Fazit

OpenAI treibt die Entwicklung von KI-Technologien mit hoher Geschwindigkeit voran, während es gleichzeitig versucht, die Sicherheitsrisiken zu minimieren und sich den ethischen Herausforderungen zu stellen. Mit dem neuen Flaggschiff-Modell und einem verstärkten Fokus auf Sicherheitsmaßnahmen bleibt OpenAI ein zentraler Akteur im Bereich der künstlichen Intelligenz. Die kommenden Monate werden entscheidend sein, um zu sehen, wie das Unternehmen diese Balance zwischen Innovation und Sicherheit hält.

Zurück
Zurück

WWDC24 Ablauf: Alles, was du wissen musst

Weiter
Weiter

Wechsel in der KI-Branche: Jan Leike von OpenAI zu Anthropic