Künstliche Intelligenz | OpenAI will mit der Einrichtung eines Überwachungsausschusses Abhilfe schaffen

Künstliche Intelligenz | OpenAI will mit der Einrichtung eines Überwachungsausschusses Abhilfe schaffen
Künstliche Intelligenz | OpenAI will mit der Einrichtung eines Überwachungsausschusses Abhilfe schaffen
-

(San Francisco) OpenAI, das Unternehmen hinter ChatGPT, gab am Dienstag die Einrichtung eines neuen Aufsichtsausschusses bekannt, da der Abgang mehrerer Beamter Bedenken hinsichtlich seines Wunsches aufkommen ließ, potenzielle Gefahren der künstlichen Intelligenz (KI) zu verringern.


Gepostet um 11:08 Uhr.

Nach Angaben des Unternehmens muss das Komitee, in dem sein Chef Sam Altman sitzen wird, mit der Arbeit beginnen, wenn OpenAI mit dem Training seines neuen KI-Modells beginnt, das die Fähigkeiten von GPT-4, dem aktuellen System im Herzen von ChatGPT, übertreffen soll.

„Wir sind stolz darauf, branchenführende KI-Modelle in Bezug auf Fähigkeiten und Sicherheit zu entwickeln und bereitzustellen, und begrüßen in diesem entscheidenden Moment die heftige Debatte, die dadurch ausgelöst wird“, sagte das Unternehmen in einer Pressemitteilung.

Das Komitee, das sich aus Vorstandsmitgliedern und Managern zusammensetzen wird, muss in den nächsten 90 Tagen daran arbeiten, die bestehende Sicherheit und die Prozesse rund um die Entwicklung fortschrittlicher KI zu bewerten und zu stärken.

OpenAI versicherte außerdem, in diesem Zeitraum Rat von externen Spezialisten zu erhalten, darunter der ehemalige amerikanische Leiter der Cybersicherheit, Rob Joyce, der diese Abteilung innerhalb der National Security Agency (NSA) leitete, sowie John Carlin, ehemaliger Leiter von das Justizministerium.

Das Komitee wird eine Bestandsaufnahme der bereits in OpenAI vorhandenen Sicherheitsprotokolle vornehmen und Empfehlungen für mögliche Verbesserungen oder Ergänzungen vorlegen.

Am Ende der drei Monate wird dem Vorstand ein Bericht des Ausschusses vorgelegt und anschließend veröffentlicht.

Die Gründung dieses Ausschusses soll eine Reaktion auf den Austritt mehrerer hochrangiger Beamter aus der Gruppe sein, die besorgt darüber sind, dass OpenAI ihrer Meinung nach der KI-Sicherheit keine Priorität einräumt.

Anfang dieses Monats löste das Unternehmen sein Team auf, das für die Reduzierung der durch KI verursachten langfristigen Risiken verantwortlich ist.

Als Teamleiter Jan Leike seinen Rücktritt ankündigte, kritisierte er OpenAI und warf ihm in einer Reihe von Tweets vor, „schönen neuen Produkten“ Vorrang einzuräumen und damit die wesentliche Arbeit zur Sicherung der KI zu beeinträchtigen.

„Mein Team ist in den letzten Monaten gegen den Strom gelaufen“, erklärte er.

Das Unternehmen sorgte auch für Kontroversen, als seine neueste Version eine Stimme enthielt, die der der amerikanischen Schauspielerin Scarlett Johansson sehr ähnlich war, auch wenn OpenAI versicherte, dass es nicht versucht hatte, den Hollywoodstar zu kopieren.

-

NEXT Der Genfer Autosalon scheiterte aufgrund des nachlassenden Interesses der Hersteller