Künstliche Intelligenzsysteme sind in der Lage, Codezeilen zu schreiben und einen Computer zu steuern. Was hält sie davon ab, andere KI zu entwickeln? Ihr Mangel an eigenem Willen und ihre Unfähigkeit, sich dynamisch anzupassen. Erläuterungen.
Ende Oktober 2024 stellte Anthropic Computer-Use vor, ein Programm, das es ihrem künstlichen Intelligenzmodell Claude ermöglicht, einen Computer wie einen Menschen zu steuern. Was würde passieren, wenn eine KI auch auf finanzielle Ressourcen zugreifen könnte, um zusätzliche Maschinen und Dienste zu erwerben? Obwohl diese Hypothese übertrieben ist, wirft sie eine faszinierende Frage auf. Könnte eine KI wirklich autonom werden und ohne menschliches Eingreifen andere KIs erschaffen?
Wie wir sehen werden, nutzen große Unternehmen wie OpenAI, Facebook oder Google bereits KI, um immer komplexere KIs zu trainieren, und das ist kein Geheimnis, auch nicht für KIs.
KIs trainieren KIs
Um zu verstehen, wie dies möglich ist, müssen wir zurückgehen und erklären, was die jüngsten Fortschritte ermöglicht hat. Alles begann im Jahr 2017, als ein Forscherteam von Google einen wissenschaftlichen Artikel veröffentlichte: „Aufmerksamkeit ist alles, was Sie brauchen“. In dieser Veröffentlichung stellten die Forscher eine neue neuronale Architektur namens „Transformers“ vor, die lernt, auf welche Wörter man „achten“ muss, um das nächste Wort generieren zu können. Diese Transformers-Architektur strukturiert nun alle neuronalen Netze moderner textgenerierender KIs.
Das Erscheinen von Transformers veranlasste OpenAI 2018, die erste Version von GPT zur Textgenerierung auf den Markt zu bringen. Obwohl sich die Grundprinzipien seitdem kaum weiterentwickelt haben, sind Umfang und Ambition der „großen Sprachmodelle“ (bzw große SprachmodelleLLM auf Englisch) sind explodiert.
So markiert die Einführung von GPT-3 im Mai 2020 den Beginn einer Kategorie von KI, die in der Lage ist, menschliche Sprachen mithilfe gigantischer neuronaler Netze zu modellieren, seien es natürliche wie Französisch oder formale wie C++ in der Informatik. Beachten Sie, dass das Modellieren mit Statistiken nicht bedeutet, kognitive Prozesse zu verstehen, und diese KIs immer noch absurde Antworten auf triviale Fragen liefern.
Weiterlesen: Geschmeidiger Redner wie eine KI
Die Modelle gingen dann von 1,5 Milliarden Verbindungen für GPT-2 auf einige Hundert Milliarden für GPT-3 und seine Nachfolger über, was hinsichtlich der Anzahl der Synapsen dem Übergang vom Gehirn einer Biene zum Gehirn eines Hamsters entspricht. Allerdings hat sich ihre Größenzunahme in den letzten Jahren verlangsamt und ist nicht mehr der Haupttreiber des Fortschritts.
Stattdessen müssen wir uns die Änderungen in den Methoden ansehen, die vor und nach dem Training des Modells stattfinden.
Mehr und bessere Daten
Das LLM-Training basiert auf Texten, die als Referenz dienen und ihnen beibringen, das nächste Wort in einem Satz vorherzusagen. Um dieses Lernen zu verbessern, verwenden wir immer mehr Daten: GPT-2 wurde auf 30 Milliarden Wörter trainiert (organisiert in Sätzen, Absätzen und Texten), verglichen mit elftausend Milliarden für LLaMa-3.
Allerdings haben nicht alle Texte, vor allem aus dem Internet, die gleiche Qualität. Ingenieure nutzen daher Bereinigungsalgorithmen und neuerdings auch LLMs selbst, um diese Daten zu verbessern, neu zu formulieren oder zu generieren (zum Beispiel für LLaMa-3 oder Qwen 2.5).
Wenn also KIs bereits am Training anderer KIs teilnehmen, bleibt diese Praxis durch die Langsamkeit von LLMs begrenzt. GPT-4 würde rund 17.000 Jahre brauchen, um allein elf Billionen Wörter (oder etwa 500 Terabyte an Daten) zu erzeugen.
Nachdem die Daten gesammelt, bereinigt und generiert wurden, folgt die eigentliche Lernphase. Diese Phase bleibt schwierig zu implementieren und erfordert eine enorme Menge an Rechenressourcen, aber seit der ersten Version von GPT im Jahr 2018 hat sich wenig geändert.
Überwachen Sie das Lernen einer KI, indem Sie ihr konstruktives Feedback geben
Andererseits beschäftigten sich die Forscher mit der Frage, wie sich ein LLM nach der Ausbildung verbessern lässt. Tatsächlich besteht eines der Probleme eines reinen LLM darin, dass es unvorhersehbar ist und nicht unbedingt den menschlichen Bedürfnissen in Bezug auf Fähigkeiten (Rekrutierung, medizinische Diagnosen, Mathematik) oder ethisches und soziales Verhalten (Chatbot, politisch korrekt, ohne Diskriminierung) entspricht und die Gesetze respektieren).
Daher entstand die Idee, die LLMs so zu kalibrieren, dass sie den Vorlieben ihrer Benutzer besser entsprechen. Zu diesem Zweck fragt die auf menschlichem Feedback basierende Technik des Verstärkungslernens Menschen nach ihrer Meinung zu generierten Texten und trainiert LLMs, Menschen zufrieden zu stellen.
Dieser Prozess ermöglichte im Jahr 2022 mit InstructGPT, einem Vorläufer von ChatGPT, einen großen Sprung nach vorne. Allerdings ist es extrem teuer, da es viel Handarbeit erfordert. Für LLaMa-3 mussten zehn Millionen Präferenzen von Menschen kommentiert werden. Diese Arbeitskräfte sind oft unterbezahlt und in prekären Situationen.
Weiterlesen: „Digitale Sträflinge“: Wie ein Gerichtsurteil in Kenia die Vergabe von Unteraufträgen an Web-Multis schwächt
Deshalb versuchen Forscher, so weit wie möglich auf menschliche Hilfe zu verzichten.
Wenn KIs KIs trainieren
Im Juli 2024 veröffentlicht ein Team von Microsoft-Wissenschaftlern AgentInstruct, eine neue Methode, um LLMs neue Fähigkeiten und Verhaltensweisen beizubringen.
Diese Methode konzentriert sich auf die Schaffung von „Agenten“, die auf viele Bereiche (Mathematik, Codierung, Medizin) spezialisiert sind und als Lehrer für das zu erlernende System dienen. In diesem Fall ist ein Agent selbst ein LLM, der jedoch durch zusätzliche externe Daten und Tools wie einen Taschenrechner, das Internet oder einen Computercode-Compiler ergänzt wird. Er ist besser ausgestattet und spezialisiert als ein LLM allein und zeichnet sich in seinem gewählten Fachgebiet aus. AgentInstruct setzt ein Bataillon von Agenten ein, die einem LLM ihr Wissen vermitteln.
Das Ergebnis: Im Gegensatz zu Agenten schreitet das LLM ohne Zugriff auf andere Ressourcen voran. Beispielsweise kann ein mit einem Taschenrechner ausgestatteter Agent die mentale Berechnung eines LLM verbessern.
Auf die gleiche Weise könnte Claude dank des Computer-Use-Programms zahlreiche IT-Tools nutzen, um seine eigenen Daten zu sammeln, zu bereinigen und zu organisieren oder sogar KI-Modelle autonomer zu trainieren, indem er spezialisierte Agenten mobilisiert. Fragen Sie ihn, wie er sich verbessern könnte, und genau das wird er sagen (das, oder eine Armee von Menschen rekrutieren, um Daten zu kommentieren).
Aber wie können wir dann erklären, dass es noch nicht in der Lage ist, sich zu reproduzieren und zu verbessern?
Vor einer KI, die sich selbst reproduzieren kann, ein langer technischer Weg und ethische Fragen
Diese Fähigkeit, spezialisierte Agenten zu schaffen, wirft entscheidende Fragen auf. Wer kontrolliert die Agenten? Wenn KIs an ihrer eigenen Verbesserung beteiligt sind, wie können wir dann sicherstellen, dass ihre Entwicklung ethisch und im Einklang mit den menschlichen Interessen bleibt? Die Rolle von Entwicklern und Regulierungsbehörden wird bei der Vermeidung möglicher Missbräuche von zentraler Bedeutung sein.
Wir sind aus mehreren Gründen noch nicht am Ziel. Aktuelle LLMs sind zwar effizient, aber begrenzt: Sie haben Schwierigkeiten bei der Planung komplexer Projekte, erfordern ständige Anpassungen während ihrer Ausbildung und sind immer noch weitgehend auf menschliches Eingreifen angewiesen, insbesondere in Rechenzentrenum physische Maschinen zu verwalten und zu warten.
Darüber hinaus können sie ohne ihren eigenen Willen keine autonomen Ziele setzen, unabhängig von erlernten menschlichen Vorlieben. Sam Altman, CEO von OpenAI, spricht von der möglichen Entstehung künstlicher allgemeiner Intelligenz bereits im Jahr 2025, diese Vorhersage bleibt jedoch umstritten, da sie technische Durchbrüche und ein besseres Verständnis der menschlichen kognitiven Mechanismen erfordern würde.
Der Erfolg von LLMs basiert auf vier Säulen: Vergrößerung ihrer Größe, architektonische Innovationen, Verbesserung von Kalibrierungstechniken und Perfektionierung von Daten. Jüngste Fortschritte, einschließlich der Automatisierung durch spezialisierte Agenten, zeigen bereits, dass KIs eine wachsende Rolle bei der Entwicklung anderer KIs spielen. Ohne eigenen Willen oder echte Autonomie ist die Idee einer KI, die sich selbstständig vermehren oder verbessern kann, jedoch immer noch Science-Fiction.
Tatsächlich würde eine Revolution dieser Größenordnung einen Umbruch der aktuellen Paradigmen erfordern, mit neuronalen Architekturen, die zu wirklich adaptiver und allgemeiner Intelligenz fähig sind. Sobald die Lernphase abgeschlossen ist, verfestigen sich LLM-Neuronale Netze derzeit: Sie können sich selbst nach Millionen von Interaktionen mit menschlichen Benutzern nicht mehr autonom weiterentwickeln oder neue Fähigkeiten erwerben. Im Gegensatz zu Menschen, die durch Kontakt mit anderen oder durch interne Reflexion lernen, verfügen LLMs nicht über Mechanismen, um ihre interne Struktur dynamisch anzupassen oder tiefe und überprüfbare Darstellungen der Außenwelt zu konstruieren. Yann LeCun, Gewinner des französischen Turing-Preises 2019, stellt sich eine neue Generation von KI vor, die mit internen Modellen ausgestattet ist und in der Lage ist, Hypothesen und Planungen zu simulieren, wie es ein Mensch tun würde, und Beobachtungen zu integrieren, um sie mit bereits bestehenden Erwartungen zu vergleichen. Die praktische Umsetzung dieser Vision bleibt jedoch eine wissenschaftliche Herausforderung.
Vielleicht wird es in den kommenden Jahren einen so entscheidenden Durchbruch wie den von Transformers im Jahr 2017 geben. Doch vorerst bleibt die Vision völlig autonomer künstlicher Intelligenzen, wie von Neumanns Sonden, die das Universum kolonisieren, hypothetisch.
Dieses Szenario lädt uns jedoch heute dazu ein, über die ethischen Fragen und die gesetzlichen und technischen Schutzmaßnahmen nachzudenken, die zur Regulierung der Entwicklung dieser Technologien erforderlich sind.