Vom 5. bis 18. Dezember veranstaltet OpenAI 12 Tage lang Ankündigungen und Demos. Es werden neue KI-Modelle und innovative Features erwartet.
Für KI-Fans ist es früh Weihnachten. Nach dem Prinzip des Vorwärtskalenders hat OpenAI vom 5. bis 18. Dezember eine Reihe neuer Funktionen und Demonstrationen geplant. „Jeden Tag der Woche werden wir einen Livestream mit einem Launch oder einer Demo veranstalten, mit Highlights und ein paar kleinen Überraschungen. Wir haben einige tolle Dinge zu teilen“, neckte Sam Altman auf X kurz vor Beginn der Feindseligkeiten. 12 Tage, die die Ankunft lang erwarteter Modelle und Funktionen und ganz sicher auch einige Überraschungen versprechen, wie OpenAI sie zu zaubern weiß. Das JDN enthüllt Ihnen Tag für Tag alle wichtigen Ankündigungen.
D4: Der Canvas-Modus wird erweitert und intelligenter
Am vierten Tag seiner „Shipmas“ verändert sich OpenAI radikal Son-Modus Canvas in einen echten automatisierten Entwicklerassistenten. Die Funktion, die jetzt für kostenpflichtige und kostenlose Benutzer verfügbar ist, ist nicht mehr nur eine visuelle Schnittstelle: Sie wird zu einer vollständigen Entwicklungsumgebung, in der KI nach Daten suchen, Code generieren, ihn ausführen und die Ergebnisse direkt in der Konsole visualisieren kann.
Canvas ist nun als Entwicklungs-Co-Pilot positioniert, der Entwickler und Datenwissenschaftler während ihres gesamten Arbeitsablaufs unterstützen kann. OpenAI erweitert diese Funktion auch auf benutzerdefinierte GPTs. Ein Update, das noch weiter in Richtung intelligenter Automatisierung von Entwicklungs- und Datenanalyseaufgaben geht.
D3: Sora verfügbar für ChatGPT Plus- und Pro-Benutzer
OpenAI führt seine mit Spannung erwartete Version ein Sora AI-Videogeneratorzehn Monate nach seiner ersten Ankündigung (Lesen Sie unseren Artikel Video-Generierung: 10 Monate nach seiner Ankündigung ist Sora von OpenAI (endlich) da). Der Dienst ist für ChatGPT Plus- und Pro-Abonnenten in den USA verfügbar und verfügt über eine neue dedizierte Schnittstelle und ein schnelleres Turbo-Modell. Benutzer können aus Texten, Bildern oder vorhandenen Videos Videos mit einer Länge von bis zu 20 Sekunden in verschiedenen Auflösungen (480p für Plus, 1080p für Pro) generieren.
Die Technologie zeichnet sich durch Kamerabewegungen und Szenenkohärenz aus, trotz einiger Einschränkungen bei der Physik von Objekten. OpenAI legt Wert auf Sicherheit mit Anti-Deepfake-Filtern, systematischem C2PA-Wasserzeichen und Einschränkungen bei der Nachahmung von Künstlerstilen. Angesichts der enormen Nachfrage schränkt OpenAI derzeit den Zugriff auf das Modell ein.
D2: Die Einführung der Feinabstimmung der Verstärkung für Entwickler
An seinem zweiten Ankündigungstag richtet sich OpenAI an Unternehmen mit einer wichtigen Innovation: Feinabstimmung der Verstärkung (RFT). Die Technik ermöglicht es Entwicklern, OpenAI-Modelle mithilfe eigener Datensätze und Bewertungskriterien an komplexe Aufgaben anzupassen. Die Technologie, die Anfang 2025 in der Alpha-Version über eine API zugänglich sein wird, zielt insbesondere auf die Bereiche Recht, Gesundheit, Finanzen und Ingenieurwesen ab. Ziel ist es, Expertenmodelle zu erhalten, die in Fachbereichen, in denen objektiv korrekte Antworten vorliegen, sehr präzise Antworten liefern können.
J1: ein neues Abonnement und die endgültige Version von o1
Am ersten Tag schlägt OpenAI hart zu und präsentiert die endgültige Version von o1sein Argumentationsmodell. Diese endgültige Version, die die Nachfolge von o1-preview antritt, die im vergangenen September veröffentlicht wurde, stellt einen erheblichen Fortschritt in Bezug auf die Leistung bei Benchmarks dar. Das Modell, das in der kostenpflichtigen Version von ChatGPT verfügbar ist, erreicht jetzt eine Erfolgsquote von 78 % bei mathematischen Wettbewerbsproblemen von AIME 2024 und erreicht das 89. Perzentil bei Codeforces-Programmierherausforderungen.
Dabei enthüllt das Unternehmen ChatGPT Proein neues Angebot im Wert von 200 US-Dollar pro Monat, das sich an Fachleute und Forscher richtet, die mehr Rechenleistung benötigen. Das Abonnement bietet Zugriff auf das gesamte OpenAI-Ökosystem (o1, o1-mini, GPT-4o, Advanced Voice) und führt den „Pro-Modus“ von o1 ein, eine optimierte Version, die mehr Rechenressourcen für die komplexesten Aufgaben mobilisiert.