Die Zukunft ist bereits da und Sie mögen sie vielleicht nicht

Die Zukunft ist bereits da und Sie mögen sie vielleicht nicht
Die Zukunft ist bereits da und Sie mögen sie vielleicht nicht
-

Im Februar sorgte ein Mann im Internet für Aufsehen, indem er ein auf der ChatGPT-Technologie basierendes Programm zum Chatten auf Tinder entwickelte. Mittels künstlicher Intelligenz chattete er mit 5.200 Frauen. Und dank dieser Methode fand er schließlich eine Frau. Aber ist KI heute so effizient, dass sie Menschen täuschen kann? Einer Studie zufolge ist es bereits heute nahezu unmöglich, den Unterschied zwischen einem Gespräch mit einem Chatbot wie ChatGPT und einem Gespräch mit einer echten Person zu erkennen.

Ein aufschlussreicher Test

Forscher des Department of Cognitive Sciences der University of California San Diego führten eine Reihe von Turing-Tests (die darin bestehen, festzustellen, ob KI in der Lage ist, wie ein Mensch zu denken) mit ELIZA durch, einem Chatbot aus den 1960er Jahren, dem GPT-3.5-Modell. und das GPT-4-Modell. Im Wesentlichen führten die Studienteilnehmer fünfminütige Diskussionen, entweder mit einem Menschen oder mit einem dieser Chatbots. Dann wurden sie gefragt, ob sie mit einem Menschen oder einer künstlichen Intelligenz chatten. Und die Ergebnisse waren erstaunlich. Während nur 22 % der Personen, die mit ELIZA chatteten, glaubten, mit einem Menschen zu sprechen, ist diese Quote bei Personen, die mit GPT-4 chatten, mit 54 % sehr hoch. Bei Menschen, die mit echten Menschen chatten, liegt die Quote dagegen bei 67 %.

Beachten Sie, dass die Forscher die Antworten des Modells über eine personalisierte Eingabeaufforderung personalisiert haben, damit GPT-4 überzeugend wirkte und beispielsweise den Ton definierte. Die Studie zeigt jedoch nicht nur, wie fortgeschritten GPT-4 ist, sondern warnt auch vor den Gefahren dieser technologischen Entwicklung. „Die Ergebnisse haben Auswirkungen auf die Debatten über künstliche Intelligenz und deuten vor allem darauf hin, dass die Täuschung aktueller KI-Systeme möglicherweise unbemerkt bleibt.“lesen wir in der Publikation der Forscher, die auf Arxiv gehostet wird.

Eine noch intelligentere KI ist bereits in der Pipeline

Die Studie unterstreicht die Fähigkeit von GPT-4, Menschen zu täuschen, während OpenAI bereits an einer noch fortschrittlicheren Version dieses Modells arbeitet. In einem Interview diskutierte Mira Murati, CTO von OpenAI, die nächste Entwicklung der ChatGPT-Technologie. Dabei wird das Intelligenzniveau von GPT-3 mit dem eines Kindes verglichen. Was GPT-4 betrifft, hätte er das Intelligenzniveau eines Oberstufenschülers. Das nächste Modell hingegen hätte die Intelligenz eines Doktoranden. „Die Dinge ändern und verbessern sich ziemlich schnell“, Sie erklärt. Und wenn OpenAI vorerst kein genaues Datum hat, schätzt Mira Murati, dass dieses Modell mit Doktorgrad innerhalb von anderthalb Jahren eintreffen könnte.

In einer Pressemitteilung, in der die Einrichtung eines internen Sicherheitsausschusses angekündigt wurde, diskutierte OpenAI auch die Entwicklung seines nächsten KI-Modells: „OpenAI hat vor kurzem mit dem Training seines nächsten Grenzmodells begonnen und wir gehen davon aus, dass die daraus resultierenden Systeme uns auf unserem Weg zu AGI auf die nächste Leistungsstufe bringen werden. Obwohl wir stolz darauf sind, Modelle zu bauen und auf den Markt zu bringen, die hinsichtlich Leistungsfähigkeit und Sicherheit branchenführend sind, freuen wir uns auf eine intensive Debatte in dieser wichtigen Zeit.“

  • Es wird immer schwieriger zu wissen, ob man mit einem Menschen oder einer künstlichen Intelligenz chattet
  • In einem Turing-Test dachten 54 % der Teilnehmer, die mit GPT-4 chatten, dass sie mit einer echten Person chatten
  • OpenAI entwickelt jedoch bereits eine noch fortschrittlichere Version seines Modells der künstlichen Intelligenz

Um keine Neuigkeiten von Presse-citron zu verpassen, folgen Sie uns auf Google News und WhatsApp.

-

NEXT OpenAI führt kritisches GPT ein, um GPT-4 zu beheben