DayFR Deutsch

ChatGPT und andere: schneller und weniger zuverlässig

-

Wer behauptet, dass ChatGPT und Konsorten mit der Zeit weniger Unwahrheiten schreiben, sollte sich besser gedulden: Die neuesten Tests zeigen, dass diese „Konversationsagenten“ mit zwei unterschiedlichen „Lernmethoden“ bei einfachen Fragen sogar noch mehr Fehler machen als zuvor .

In der Welt der KI-Entwickler geht es um zwei Methoden: Diese „Roboter“ mit mehr Daten und mehr Rechenleistung zu „trainieren“ oder sie dazu zu bringen, sich „anzupassen“ (Feinabstimmung) als Reaktion auf menschliches Feedback.

Ein Team der Polytechnischen Universität Valencia in Spanien testete die beiden Methoden jedoch auf ChatGPT von der Firma OpenAI, LLaMA von der Firma Meta und BLOOM von der Firma BigScience. Das Ergebnis: Diese „breiten Sprachmodelle“, wie sie genannt werden, können komplizierte Fragen besser beantworten, beispielsweise das Lösen eines langen Anagramms. Bei so einfachen Fragen wie Additionen sind sie jedoch weniger gut.

Die Studie wurde am 25. September in der Zeitschrift veröffentlicht Naturunter dem eindeutigen Titel Größere und besser anweisbare Sprachmodelle werden weniger zuverlässig.

Die Konsequenz ist, dass mit der einen oder anderen der beiden Lernmethoden die „Fähigkeit“ dieser Roboter, Unwahrheiten zu sagen, zunimmt. Und es versteht sich von selbst, dass Maschinen dies nicht erkennen, denn der Beweis dafür ist, dass sie der Beantwortung einer Frage nicht ausweichen können, wenn sie die Antwort nicht kennen. Sie sind auch nicht in der Lage, dem Menschen, der ihnen eine Frage gestellt hat, eine Warnung zu senden wie „Seien Sie vorsichtig, ich habe möglicherweise einen Fehler gemacht“.

Mit anderen Worten: Demut ist nicht Teil ihrer Programmierung.

Es ist dieselbe Beobachtung, die Anfang des Jahres ein Trio von Forschern aus Philosophie und Sozialwissenschaften dazu veranlasste, den Begriff „Bullshit“ (Bullshit, Blödsinn oder Dummheit) vorzuschlagen, um die Neigung dieser KI zu bezeichnen, etwas zu sagen (KI-Entwickler verwenden stattdessen den Begriff). „Halluzinationen“, was kritisiert wird, weil es zu sehr dazu tendiert, die Maschine zu „humanisieren“.

Der Mensch wäre daher gut beraten, warnen die spanischen Forscher, den Antworten der KI nicht zu vertrauen, so beeindruckend sie auch sein mögen. In naher Zukunft scheint die KI dazu verdammt zu sein, weiterhin Unwahrheiten zu produzieren, und Experten haben keine Lösung in Sicht.

Abonnieren Sie unseren umfangreichen Newsletter

Ermutigen Sie uns zum Preis eines Kaffees

Related News :