OpenAI stellt GPT-4o mini vor: Intelligenter, günstiger und schneller

OpenAI hat heute das neue GPT-4o mini-Modell vorgestellt, das nicht nur intelligenter und günstiger, sondern auch genauso schnell wie das vorherige GPT-3.5 Turbo ist. Hier sind die wichtigsten Informationen:

GPT-4o mini übertrifft GPT-3.5 Turbo in Sachen Textintelligenz und multimodales Denken und erzielt beeindruckende 82% bei MMLU im Vergleich zu 69,8% von GPT-3.5 Turbo. Ein herausragender Vorteil ist der Preis: GPT-4o mini kostet mehr als 60% weniger als GPT-3.5 Turbo, nämlich nur $0,15 pro 1 Million Eingabetoken und $0,60 pro 1 Million Ausgabetoken, was ungefähr 2500 Buchseiten entspricht.

Dieses Modell unterstützt derzeit Text- und Bildverarbeitung, und in Zukunft sollen auch Audio- und Videoeingaben und -ausgaben möglich sein. Außerdem bietet GPT-4o mini eine verbesserte mehrsprachige Verständigung in verschiedenen nicht-englischen Sprachen.

Dank seiner niedrigen Kosten und geringen Latenz eignet sich GPT-4o mini hervorragend für hochvolumige Aufgaben wie das Durchsuchen kompletter Code-Basen oder Gesprächsverläufe, kostensensitive Aufgaben wie das Zusammenfassen großer Dokumente und Aufgaben, die schnelle Antworten erfordern, wie etwa Kunden-Support-Chatbots. Wie das größere Modell GPT-4o verfügt auch GPT-4o mini über ein Kontextfenster von 128k und unterstützt bis zu 16k Ausgabetoken pro Anfrage. Das Modell hat einen Wissensstand bis Oktober 2023.

OpenAI plant, in den nächsten Tagen das Feintuning für GPT-4o mini zu starten. Entwicklern, die bisher GPT-3.5 Turbo nutzen, wird empfohlen, auf GPT-4o mini umzusteigen, um von der höheren Intelligenz und den niedrigeren Kosten zu profitieren.

GPT-4o mini kann über die Chat Completions API, Assistants API oder die Batch API verwendet werden, wobei bei Batch-Jobs, die innerhalb von 24 Stunden asynchron abgeschlossen werden, ein Rabatt von 50% gewährt wird.

Interessierte Entwickler können das Modell im Playground testen und die API-Dokumentation durchsehen. Weitere Informationen zur Verwendung der Bildverarbeitung mit GPT-4o mini finden sich im "Introduction to GPT-4o and GPT-4o mini" in der OpenAI-Kochbuch-Dokumentation. Bei Fragen steht das OpenAI-Entwicklerforum zur Verfügung.

Zurück
Zurück

Meta stoppt Einführung seines KI-Modells in der EU

Weiter
Weiter

Einführung der CoSAI: Ein neuer Standard für KI-Sicherheit