„Sagen Sie hallo zu GPT-4o, unserem neuen Flaggschiff-Modell, das Audio-, Bild- und Texteingaben in Echtzeit verarbeiten kann: Text- und Bildeingaben werden heute in API und ChatGPT eingeführt, Sprach- und Videoeingaben folgen in den nächsten Wochen”, so OpenAI bei der heutigen Live-Präsentation.
„GPT-4o (“o“ für ‚omni‘) ist ein Schritt in Richtung einer viel natürlicheren Mensch-Computer-Interaktion – es akzeptiert als Eingabe eine beliebige Kombination von Text, Audio und Bild und erzeugt eine beliebige Kombination von Text-, Audio- und Bildausgaben. Sie kann auf Audioeingaben in nur 232 Millisekunden reagieren, mit einem Durchschnitt von 320 Millisekunden, was der menschlichen Reaktionszeit in einem Gespräch entspricht.“
OpenAIs neuestes KI-Modell, GPT-4o, ist auf dem neuesten Stand der Technik und bietet eine Reihe von leistungsstarken Funktionen und Vorteilen, darunter:
- Blitzschnelle Leistung – 2x schneller als GPT-4 bei 50% geringeren Kosten,
- Mehrsprachigkeit in über 50 Sprachen mit Echtzeitübersetzung,
- Multimodale Intelligenz zur Analyse von Diagrammen, Bildern, Dokumenten und Videos,
- Erweitertes Gedächtnis für personalisierte und kontextbezogene Antworten, und
- Audio-Interaktion und Emotionserkennung für natürliche Unterhaltungen.
Gehören Sie zu den Ersten, die von den neuesten KI-Nachrichten für Unternehmen erfahren, um in der heutigen schnelllebigen Geschäftswelt ein neues Maß an Effizienz, Einblicken und Wettbewerbsvorteilen zu erschließen. Bleiben Sie auf dem Laufenden und folgen Sie uns auf LinkedIn.