OpenAI stellt Verbesserungen für die Fine-Tuning API und Custom Models vor

OpenAI setzt erneut Maßstäbe im Universum der Künstlichen Intelligenz. Mit dem jüngsten Update ihrer Fine-Tuning-API und der Erweiterung des Programms für benutzerdefinierte Modelle (custom models), öffnet OpenAI die Türen für Entwickler, die Träume von einer personalisierten KI in greifbare Realität verwandeln wollen. Dieses Update markiert einen Meilenstein in der Art und Weise, wie wir als Entwickler mit KI-Technologie umgehen und sie an unsere spezifischen Bedürfnisse anpassen können.

Fine Tuning Dashboard OpenAI

Bildquelle: OpenAI

Es gibt eine Vielzahl von Techniken, die Entwickler einsetzen können, um die Leistung eines Modells zu erhöhen und so die Latenzzeit zu verringern, die Genauigkeit zu verbessern und die Kosten zu senken. Ob es sich um die Erweiterung des Modellwissens mit Retrieval-Augmented Generation (RAG), die Anpassung des Modellverhaltens durch Feinabstimmung oder den Aufbau eines individuell trainierten Modells mit neuem branchenspezifischen Wissen handelt, OpenAI hat eine Reihe von Optionen zur Unterstützung der KI-Implementierungen entwickelt.

Neue Funktionen der Fine-Tuning-API

OpenAI hat seine Fine-Tuning-API für GPT-3.5 erstmals im August 2023 eingeführt. Seitdem haben tausende Organisationen und Unternehmen die API genutzt, um ihre Modelle zu trainieren und zu verfeinern. Das Fine-Tuning kann den Modellen helfen, Inhalte besser zu verstehen und das vorhandene Wissen und die Fähigkeiten eines Modells für eine bestimmte Aufgabe zu erweitern. Die API unterstützt auch mehr Kontext, als in einen einzigen Prompt passen würde, um qualitativ hochwertigere Ergebnisse zu erzielen und gleichzeitig Kosten und Latenzzeiten zu reduzieren. Einige der häufigsten Anwendungsfälle für das Fine-Tuning sind das Trainieren eines Modells, um besseren Code in einer bestimmten Programmiersprache zu generieren, Text in einem bestimmten Format zusammenzufassen oder personalisierte Inhalte auf der Grundlage des Benutzerverhaltens zu erstellen.

Jetzt stellt OpenAI neue Funktionen vor, die Entwicklern noch mehr Kontrolle über das Fine-Tuning geben, darunter:

  • Epochenbasierte Checkpoint-Erstellung: Automatische Erstellung eines vollständigen, fine-tuning Modell-Checkpoints während jeder Trainingsepoche, wodurch die Notwendigkeit eines erneuten Trainings reduziert wird, insbesondere im Falle einer Überanpassung.

  • Playground mit Vergleich: Eine neue, nebeneinander angeordnete Playground-Benutzeroberfläche für den Vergleich von Modellqualität und -leistung, die eine menschliche Bewertung der Ergebnisse mehrerer Modelle oder Snapshots für das Fine-Tuning anhand eines einzigen Prompts ermöglicht.

  • Integration von Drittanbietern: Unterstützung für die Integration mit Plattformen von Drittanbietern (startet mit Weights & Biases), damit Entwickler detaillierte Fine-Tuning-Daten an den Rest ihres Stacks weitergeben können.

  • Umfassende Validierungsmetriken: Die Möglichkeit, Metriken wie Verlust und Genauigkeit über den gesamten Validierungsdatensatz anstelle eines Stichprobenstapels zu berechnen, bietet einen besseren Einblick in die Modellqualität.

  • Konfiguration von Hyperparametern: Die Möglichkeit, verfügbare Hyperparameter über das Dashboard zu konfigurieren (statt nur über die API oder das SDK).

  • Verbesserungen im Dashboard für das Fine-Tuning: Einschließlich der Möglichkeit, Hyperparameter zu konfigurieren, detailliertere Trainingsmetriken anzuzeigen und Jobs aus früheren Konfigurationen erneut zu starten

Fine-Tuning OpenAI

Bildquelle: OpenAI

Einsatzbereiche des Fine-Tunings

Die Praxisbeispiele sind vielfältig und beeindruckend. Nehmen wir Indeed: Die Plattform nutzte die Feinabstimmungs-API, um personalisierte Empfehlungen für Arbeitssuchende zu generieren, was zu einer erheblichen Verbesserung von Kosten und Latenzzeit führte. Die Verbesserung war vor allem dadurch möglich, indem Indeed die Anzahl der Token bei den Prompts um 80 % durch das Fine-Tuning reduzierte. Dies ermöglichte eine Skalierung von weniger als einer Million Nachrichten an Arbeitssuchende pro Monat auf etwa 20 Millionen. Diese und ähnliche Erfolgsgeschichten verdeutlichen das Potenzial der Feinabstimmung, um spezifische Aufgaben effizienter und effektiver zu gestalten.

Ausweitung des Programms für Custom Models

Unterstütztes Fine-Tuning

Auf dem OpenAI DevDay im November letzten Jahres wurde ein Programm für benutzerdefinierte Modelle angekündigt, mit dem in Zusammenarbeit mit einer Gruppe von OpenAI-Entwicklern Modelle für einen bestimmten Bereich trainiert und optimiert wurden. Seitdem hat OpenAI sich mit Dutzenden Interessenten getroffen, um ihre Anforderungen an Custom Models besser zu verstehen, und das Programm weiterzuentwickeln und die Leistung zu maximieren.

Jetzt kündigt OpenAI offiziell das Angebot zum unterstützten Fine-Tuning als Teil des Custom Model-Programms an. Bei dem unterstützten Fine-Tuning handelt es sich um eine Zusammenarbeit mit OpenAIs technischen Teams, um Techniken zu nutzen, die über die Fine-Tuning-API hinausgehen, wie z. B. zusätzliche Hyperparameter und verschiedene parametereffizientere Fine-Tuning-Methoden in größerem Umfang. Dies ist besonders hilfreich für Unternehmen, die Unterstützung bei der Einrichtung effizienter Trainingsdaten-Pipelines, Auswertungssysteme und maßgeschneiderter Parameter und Methoden benötigen, um die Modellleistung für ihren Anwendungsfall oder ihre Aufgabe zu maximieren.

SK Telecom zum Beispiel, ein Telekommunikationsbetreiber mit über 30 Millionen Kunden in Südkorea, wollte ein Modell anpassen, das ein Experte im Bereich Telekommunikation ist und sich zunächst auf den Kundenservice konzentriert. Sie arbeiteten mit OpenAI zusammen, um GPT-4 fein abzustimmen, um seine Leistung bei telekommunikationsbezogenen Gesprächen in koreanischer Sprache zu verbessern. Im Laufe mehrerer Wochen erzielten SKT und OpenAI eine deutliche Leistungsverbesserung bei Telekommunikations-Kundendienstaufgaben - eine 35%ige Steigerung der Qualität der Gesprächszusammenfassung, eine 33%ige Steigerung der Genauigkeit bei der Kunden-Absichtserkennung und eine Steigerung der Zufriedenheitswerte von 3,6 auf 4,5 (von 5 Sternen) im Vergleich zwischen dem abgestimmten Modell und „normalem“ GPT-4.

Individuell trainiertes Custom Modell

In manchen Fällen müssen Unternehmen ein speziell entwickeltes Modell von Grund auf trainieren, das ihr Geschäft, ihre Branche oder ihren Bereich sehr genau versteht. Vollständig benutzerdefinierte Modelle vermitteln neues Wissen aus einem bestimmten Bereich, indem wichtige Schritte des Modelltrainings mit neuartigen Mid- und Post-Trainingstechniken von OpenAI modifiziert werden. Unternehmen, die mit einem vollständig benutzerdefinierten Modell Erfolg haben, verfügen oft über große Mengen an eigenen Daten - Millionen von Beispielen oder Milliarden von Token -, die sie verwenden möchten, um dem Modell neues Wissen oder komplexe, einzigartige Verhaltensweisen für sehr spezifische Anwendungsfälle beizubringen.

Harvey, ein KI-basiertes Rechtstool für Anwälte, hat sich beispielsweise mit OpenAI zusammengetan, um ein speziell trainiertes, umfangreiches Sprachmodell für das US-amerikanische Rechtsfragen zu erstellen. Die Basismodelle waren zwar in der Lage, Schlussfolgerungen zu ziehen, aber es fehlte ihnen das umfangreiche Wissen über die Geschichte der Rechtsfälle und andere Kenntnisse, die für eine ordentliche juristische Arbeit erforderlich sind. Nach der Erprobung von Prompt-Engineering, RAG und Feinabstimmung arbeitete Harvey mit dem OpenAI Team zusammen, um dem Modell die erforderliche Kontexttiefe hinzuzufügen - das Äquivalent von 10 Milliarden Token an Daten. Das OpenAI Team änderte jeden Schritt des Modelltrainings, vom bereichsspezifischen Mid-Training bis hin zur Anpassung der Post-Trainingsprozesse und der Einbeziehung des Feedbacks von Anwaltsexperten. Das resultierende Modell erzielte eine 83%ige Steigerung der sachlichen Antworten und die Anwälte bevorzugten die Ergebnisse des angepassten Modells in 97 % der Fälle gegenüber GPT-4.

Harvey Rechtsanwalt GPT OpenAI Fine-Tuning

Bildquelle: OpenAI

Was kommt als nächstes

Die Zukunft der KI liegt in der Personalisierung. OpenAIs neuestes Update ermöglicht es Organisationen und Unternehmen aller Größen, maßgeschneiderte Modelle zu entwickeln, die einen konkreten, spezifischen Nutzen bieten. Diese Entwicklung verspricht nicht nur Effizienzsteigerungen und Kostensenkungen, sondern auch eine neue Ära der KI, in der die Technologie noch stärker auf individuelle Bedürfnisse zugeschnitten ist.

Häufig gestellte Fragen zum Thema

Was bedeutet Feinabstimmung (Fine-Tuning) der KI?

Feinabstimmung bezieht sich auf den Prozess der Anpassung eines KI-Modells, um es für spezifische Aufgaben oder Daten effektiver zu machen.

Wie funktioniert das unterstütze Fine-Tuning?

Das unterstützte Fine-Tuning ist eine Zusammenarbeit zwischen den technischen Teams von OpenAI und dem Kunden, um KI-Modelle durch erweiterte Techniken und Parameter anzupassen.

Was sind die Vorteile angepasster KI-Modelle?

Angepasste Modelle können spezifische Aufgaben effizienter und effektiver lösen, was zu Kostenreduzierungen und Verbesserungen in der Leistung führt.

In welchen Bereichen können angepasste Modelle eingesetzt werden?

Angepasste Modelle finden Anwendung in zahlreichen Bereichen, von der Kundenbetreuung über rechtliche Analysen bis hin zur Optimierung von Arbeitsprozessen.

Wie kann ich mit OpenAI zusammenarbeiten, um ein angepasstes Modell zu entwickeln?

Interessierte Organisationen können die Dokumentation der Fine-Tuning-API von OpenAI nutzen oder direkt Kontakt aufnehmen, um mehr über die Zusammenarbeit zu erfahren.

Was ist für die Entwicklung eines erfolgreichen KI-Modells erforderlich?

Erfolgreiche KI-Modelle erfordern eine klare Definition des Anwendungsfalls, die Auswahl geeigneter Techniken und die Bereitschaft, das Modell kontinuierlich zu optimieren.

Zurück
Zurück

Transparenz im Fokus: Metas KI-Kennzeichnung

Weiter
Weiter

KI bei Apple: Alles verschlafen oder heimliche Strategie?