Hat OpenAI mit dem o1-Modell AGI erreicht? Hier ist, was einige Mitarbeiter des Unternehmens darüber denken

Hat OpenAI mit dem o1-Modell AGI erreicht? Hier ist, was einige Mitarbeiter des Unternehmens darüber denken
Hat OpenAI mit dem o1-Modell AGI erreicht? Hier ist, was einige Mitarbeiter des Unternehmens darüber denken
-

⇧ [VIDÉO] Dieser Partnerinhalt könnte Ihnen auch gefallen

OpenAI verfolgt wie viele andere Unternehmen der Branche das Ziel, künstliche allgemeine Intelligenz (AGI) zu erreichen. „
Unsere Mission ist es, sicherzustellen, dass künstliche allgemeine Intelligenz der gesamten Menschheit zugute kommt“, erklärt das Unternehmen auf seiner Website. Mit seinem neuen o1-Modell ist OpenAI diesem Ziel möglicherweise näher denn je gekommen.

Am 5. Dezember veröffentlichte OpenAI offiziell die Vollversion seines neuen o1-Modells, das ursprünglich im September vorgestellt wurde (in der „Vorschau“-Version). Er weist Verbesserungen im Denken sowie fortgeschrittene Programmier- und Mathematikfähigkeiten auf. Darüber hinaus bietet es, wie die Basismodelle, die Möglichkeit, Bilder und Dokumente hochzuladen, um detaillierte Analysen anzufordern.

Seit seiner Einführung hat das o1-Modell viel Lob für seine Leistung erhalten. Es bietet schnellere Antworten und weist im Vergleich zu seiner Version eine geringere Fehlerquote aufVorschau . Darüber hinaus wurden die Sicherheitsmechanismen gestärkt. OpenAI will damit aber nicht aufhören und erwägt bereits die Hinzufügung weiterer Funktionen. Die Fähigkeiten dieses neuen Modells haben einige Benutzer auch zu der Annahme veranlasst, dass es einer Form von AGI ähneln könnte. Ein OpenAI-Mitarbeiter behauptete subjektiv sogar, dass die AGI bereits erreicht sei.

«Wir sind bereits beim IAG angekommen»

«Meiner Meinung nach haben wir AGI bereits erreicht und dies wird bei o1 noch deutlichersagte Vahid Kazemi, ein technischer Mitarbeiter bei OpenAI, auf seinem X-Konto kurz nach der Einführung des Modells. AGI bezeichnet ein derzeit theoretisches künstliches Intelligenzsystem, das in der Lage ist, alle für einen Menschen zugänglichen intellektuellen Aufgaben auszuführen. Ein solches Modell kann somit auf einem Niveau denken, verstehen, lernen und Probleme lösen, das mit dem des Menschen vergleichbar oder sogar höher ist.

Dennoch stellt Kazemi klar, dass die AGI, von der er spricht, noch nicht in der Lage ist, alle Menschen bei allen Aufgaben zu übertreffen, dass sie aber „bei den meisten Aufgaben besser als die meisten Menschen“ sein kann. In derselben Veröffentlichung differenziert der Experte auch die Wahrnehmungen rund um AGI. In seinen Augen wird dieses Konzept oft zu stark vereinfacht und auf die Anwendung eines einfachen „Rezepts“ reduziert. Er weist darauf hin, dass selbst Wissenschaftler durch Versuch und Irrtum vorankommen, einen Lernprozess, der dem der ausgefeiltesten KI-Modelle ähnelt.

-

Ein diskreterer Eingang als erwartet?

Angesichts der Begeisterung, die AGI auslöste, hätte man einen spektakulären Auftritt dieses Systems in der Öffentlichkeit erwarten können. Laut einem anderen Spezialisten für künstliche Intelligenz, Ethan Mollik, könnte ihre Ankunft jedoch von einem Teil der Öffentlichkeit unbemerkt bleiben. Der Grund liegt in der begrenzten Nutzung der überlegenen Fähigkeiten des AGI bei den täglichen Aktivitäten der Benutzer. „Modelle wie o1 deuten darauf hin, dass Menschen AGI-ähnliche Systeme im Allgemeinen nicht bemerken. Die meisten Menschen haben nicht viele Aufgaben, die an die Grenzen der menschlichen Intelligenz stoßen, und werden sie daher nicht bemerken», erklärt er auf seinem X-Account.

Siehe auch

In einem Beitrag zu X betont Mollik, dass nur Experten oder sachkundige Benutzer die Fähigkeiten eines solchen Systems wirklich schätzen und voll ausschöpfen können. Für einen gewöhnlichen Menschen mögen selbst die beeindruckendsten Leistungen unbedeutend erscheinen.

Der Experte betont jedoch das Potenzial des o1-Modells zur Lösung komplexer Probleme. „Es kann Probleme auf Doktorandenebene lösen und zeigt klare Anwendungen in Wissenschaft, Finanzen und anderen hochwertigen Bereichen», schreibt er. Mollik kommt dennoch zu dem Schluss, dass das Missverständnis seiner Fähigkeiten durch die breite Öffentlichkeit ein „Indikator“ für seinen Fortschritt bleibt, auch wenn das OpenAI-System kein AGI im herkömmlichen Sinne des Begriffs darstellt.

---