GPT-4o: OpenAI stellt sein neuestes Sprachmodell vor, das für die Benutzer kostenlos verfügbar ist

Nach vielen Spekulationen in den sozialen Medien und anderen Foren darüber, was OpenAI für uns auf Lager hat, hat OpenAI gestern endlich seinen neuesten und bisher leistungsstärksten LLM vorgestellt – GPT-4o (‘o’ für omni). Falls Sie die Einführungsveranstaltung von GPT-4o verpasst haben, lassen Sie uns einen Blick auf die Fähigkeiten von GPT-4o und die Funktionen werfen, die es bietet.

Verbesserte Audio-, Text- und Bildbearbeitungsfähigkeiten

Der GPT-4 Turbo ist ein leistungsstarkes Modell, das jedoch einen Nachteil hat – die Latenzzeit. Im Vergleich zu GPT-3.5 Turbo ist GPT-4 Turbo immer noch deutlich langsamer. GPT-4o behebt diesen Nachteil und ist 2x schneller als GPT-4 Turbo. Dies eröffnet ein breiteres Spektrum an Anwendungsfällen, die die Integration von Daten aus Sprache, Text und Bild erfordern, und geht damit einen Schritt weiter von multimodal zu omnimodal. Der Hauptunterschied zwischen multi-modal und omni-modal besteht darin, dass bei omni-modal alle drei Quellen nahtlos parallel betrieben werden können.

Diese Verbesserungen ermöglichen es dem Modell auch, Sprache mit verbesserter Stimmmodulation, der Fähigkeit, Sarkasmus zu verstehen, und verbesserten natürlichen Konversationsfähigkeiten zu erzeugen.

Reduzierte Preise und kostenlos für ChatGPT-Benutzer verfügbar

Obwohl GPT-4o im Vergleich zum bisherigen GPT-4 Turbo effizienter und schneller ist, kostet es die Hälfte des Preises (API) von GPT-4 Turbo, d.h. GPT-4o wird 5,00 US$/1M Input-Token und 15,00 US$/1M Output-Token kosten. Mit der besseren Preisgestaltung beträgt das Kontextfenster nun 128k Token und der Wissensstopp ist Oktober 2023.

Als Sahnehäubchen wird GPT-4o allen ChatGPT-Benutzern kostenlos zur Verfügung stehen (ChatGPT Plus-Benutzer haben eine 5-fache Obergrenze für GPT-4o). Daneben hat OpenAI auch die ChatGPT-Desktop-App vorgestellt, mit der die Benutzer die Sehfähigkeiten des GPT-4o nutzen können, um die auf dem Bildschirm angezeigten Inhalte zu lesen und zu verstehen. Die Benutzer können auch über die Desktop-App mit ChatGPT sprechen.

GPT-4o Demo

 

OpenAI teilte mit, dass sie den Zugang zu GPT-4o in den nächsten Wochen schrittweise einführen werden, wobei ChatGPT Plus-Benutzer Vorrang und frühen Zugang zu dem Modell erhalten. Wir werden das wahre Potenzial dieses Modells erst verstehen, wenn wir in den kommenden Wochen Zugang dazu erhalten. Aufregende Zeiten liegen vor uns!

More From Our Blog

Vom Chatbot zur Suchmaschine: Wie die ChatGPT-Suche von OpenAI das Spiel verändert

Vom Chatbot zur Suchmaschine: Wie die ChatGPT-Suche von OpenAI das Spiel verändert

Die Entwicklung der KI-gesteuerten Websuche Die neueste Innovation von OpenAI, ChatGPT Search, stellt einen bedeutenden Sprung in der KI-gesteuerten Websuche dar. Diese Funktion integriert die Echtzeit-Websuche in die ChatGPT-Oberfläche, so dass Ben...

Read More
Nemotron 70B von Nvidia AI veröffentlicht: Sollten sich OpenAI und Anthropic fürchten?

Nemotron 70B von Nvidia AI veröffentlicht: Sollten sich OpenAI und Anthropic fürchten?

Nvidia hat in aller Stille sein neuestes KI-Modell vorgestellt, den Nemotron 70B, der im Bereich der künstlichen Intelligenz Wellen schlägt, indem er etablierte Modelle wie den GPT-4 von OpenAI und den Claude 3.5 Sonnet von Anthropic übertrifft. D...

Read More

Build Your Own Business AI

Get Started Free
Top