Microsoft startet verspätet einen Angriff auf die „Halluzinationen“ seiner KI

-

Das Redmonder Unternehmen bringt ein Tool namens „Correction“ auf den Markt, mit dem KI-generierte Texte identifiziert und Umschreibungen angeboten werden sollen. Auch dieses Tool basiert auf Sprachmodellen. Das Tool kommt verspätet, während bei einigen Unternehmen Zweifel am Vertrauen aufkommen, das der generativen KI entgegengebracht werden soll.

Wie Microsoft jetzt in seinem Werbevideo für sein neues „Korrektur“-Tool zugibt: „ KI-„Halluzinationen“ können die Genauigkeit, das Vertrauen der Benutzer und die Glaubwürdigkeit Ihrer App beeinträchtigen ».

Bis vor kurzem haben generative KI-Unternehmen diese Art von Werkzeugen massiv verbreitet, ohne sich über diese Konsequenzen Gedanken zu machen. Doch diese „Halluzinationen“ – oder besser gesagt Fehler, bei denen das System inkonsistente Texte oder Bilder erzeugt – gibt es seit Beginn der öffentlichen Nutzung großer Modelle.

Pflaster zur Vermeidung von Halluzinationen

Diese Unternehmen beginnen, einige Patches anzubieten, um die Fehler in ihren Modellen zu korrigieren. Da Finanzkreise zunehmend von einer KI-Blase sprechen, scheint es auch, dass sie den Anlegern zeigen müssen, dass ihre Systeme verbessert werden können. Im Juni kündigte OpenAI an, dass CriticGPT Korrekturen für von GPT-4 generierte Codefehler anbieten soll. Ende Juni schlug auch Google ein eigenes System vor.

Hier stellt Microsoft mit Correction sicher, dass es ein Tool anbieten kann, das fehlerhafte Inhalte erkennen und umschreiben kann, die von jeder generativen KI generiert werden. „ Es ist von entscheidender Bedeutung, unsere Kunden in die Lage zu versetzen, unbegründete Inhalte und Halluzinationen zu verstehen und darauf zu reagieren, insbesondere da die Nachfrage nach Zuverlässigkeit und Genauigkeit bei KI-generierten Inhalten weiter wächst. Zunahme », erklärt das Unternehmen.

Microsoft bietet dieses Tool Benutzern seiner Azure AI Content Safety API an, die es für von jedem Modell generierte Texte verwenden können.

Von TechCrunch befragt, erklärt Microsoft: „ Die Korrektur basiert auf einem neuen Prozess, bei dem kleine und große Sprachmodelle verwendet werden, um die Ausgabe an bestimmte Dokumente anzupassen „. Das Unternehmen fügt hinzu: „ Wir hoffen, dass diese neue Funktion Entwicklern und Benutzern generativer KI in Bereichen wie der Medizin helfen wird, in denen Anwendungsentwickler feststellen, dass die Antwortgenauigkeit von erheblicher Bedeutung ist ».

Modelle zur Korrektur anderer Modelle

Außerdem wird auf einen Artikel weitergeleitet, der kürzlich von Microsoft-Forschern online auf arXiv veröffentlicht wurde. Wie TechCrunch feststellt: „ In dem Dokument werden wesentliche Details weggelassen, beispielsweise die Datensätze, die zum Trainieren der Modelle verwendet werden ».

In diesem Artikel wird eine Sequenz zweier Sprachmodelle vorgeschlagen, um den vom getesteten Modell generierten Satz zu analysieren. Das erste Korrekturmodell, ein kleines Modell, klassifiziert den Satz als „Halluzination“ oder nicht. Wenn der Satz als solcher kategorisiert wird, wird ein anderes, größeres Modell verwendet, um eine Erklärung dieser Kategorisierung zu generieren. Wenn dieses Modell davon ausgeht, dass es sich bei dem generierten Satz nicht um eine „Halluzination“ handelt, verfeinert ein Feedback-Mechanismus die Ergebnisse des ersten Modells.

Das System von Microsoft, das Retrieval-Augmented Generation (RAG) verwendet, muss sich auf eine Reihe von Dokumenten verlassen, die der Benutzer als „Begründungsgrundlage“ bereitstellt.

Halluzinationen sind Teil von Sprachmustern

Auf die Frage von TechCrunch nach diesem System erklärt Os Keyes, Doktorand an der University of Washington: „ Der Versuch, Halluzinationen durch generative KI zu beseitigen, ist wie der Versuch, Wasserstoff aus Wasser zu entfernen ».

Für Mike Cook, Forscher an der Queen Mary University, könnte diese Korrektur im Laufe der Zeit und ohne Transparenz das falsche Gefühl vermitteln, dass Halluzinationen verschwinden. „ Microsoft hat wie OpenAI und Google diese problematische Situation geschaffen, in der man sich auf Modelle in Szenarien verlässt, in denen sie häufig falsch sind » erklärt er TechCrunch. Aber für Mike Cook: „ Microsoft wiederholt den Fehler nun auf einer höheren Ebene. Nehmen wir an, dies bringt uns von 90 % Sicherheit auf 99 % Sicherheit.Das Problem lag nie wirklich bei diesen 9 %. Es wird immer bei den 1 % der Fehler liegen, die wir noch nicht erkennen ».

Ein Verlust des Kundenvertrauens

„Halluzinationen“ sind ein Problem für Microsoft und seine Konkurrenten und beginnen, das Vertrauen ihrer Benutzer in ihre neuen Tools zu untergraben. Unsere Kollegen von The Information erklärten Anfang September, dass bestimmte Microsoft-Kunden die Office-KI, die ihnen helfen soll, nicht mehr nutzen. Ende Juli berichtete Business Insider, dass ein Unternehmen der Pharmaindustrie seine Vereinbarung mit Microsoft bezüglich Copilot nach sechs Monaten aufgegeben habe, weil die angebotenen Tools nicht effizient genug seien, um die Investition zu rechtfertigen.

Laut einer Umfrage von KPMG geben sechs von zehn britischen Tech-Führungskräften an, dass Halluzinationen das größte Problem bei der Einführung generativer KI-Tools seien.

-

PREV Apple würde für nächstes Jahr an einem vernetzten Produkt speziell für zu Hause arbeiten
NEXT Lifebloom, eine Lösung, um wieder laufen zu können