RTL Today – Dringende Frage: Können wir künstliche Intelligenz von Voreingenommenheit befreien?

RTL Today – Dringende Frage: Können wir künstliche Intelligenz von Voreingenommenheit befreien?
RTL Today – Dringende Frage: Können wir künstliche Intelligenz von Voreingenommenheit befreien?
-

Künstliche Intelligenz, die auf Bergen potenziell voreingenommener Informationen aufbaut, hat ein echtes Risiko einer automatisierten Diskriminierung geschaffen. Gibt es jedoch eine Möglichkeit, die Maschinen umzulernen?

Für einige ist die Frage äußerst dringend. In dieser ChatGPT-Ära wird KI immer mehr Entscheidungen für Gesundheitsdienstleister, Bankkreditgeber oder Anwälte treffen und dabei alles verwenden, was aus dem Internet durchsucht wurde, als Ausgangsmaterial.

Die zugrunde liegende Intelligenz der KI ist daher nur so gut wie die Welt, aus der sie stammt, und wahrscheinlich voller Witz, Weisheit und Nützlichkeit, aber auch voller Hass, Vorurteile und Schimpftiraden.

„Es ist gefährlich, weil die Menschen KI-Software annehmen und übernehmen und wirklich darauf angewiesen sind“, sagte Joshua Weaver, Direktor von Texas Opportunity & Justice Incubator, einer Rechtsberatung.

„Wir können in diese Rückkopplungsschleife geraten, in der die Voreingenommenheit in uns selbst und in unserer Kultur Voreingenommenheit in der KI beeinflusst und zu einer Art Verstärkungsschleife wird“, sagte er.

Sicherzustellen, dass die Technologie die menschliche Vielfalt besser widerspiegelt, ist nicht nur eine politische Entscheidung.

Andere Einsatzmöglichkeiten von KI, etwa die Gesichtserkennung, haben dazu geführt, dass Unternehmen wegen Diskriminierung mit den Behörden in Konflikt geraten.

Dies war der Fall gegen Rite-Aid, eine US-Apothekenkette, deren Ladenkameras nach Angaben der Federal Trade Commission Verbraucher, insbesondere Frauen und Farbige, fälschlicherweise als Ladendiebe markierten.

‘Habe es falsch verstanden’

Experten befürchten, dass die generative KI im ChatGPT-Stil, die in Sekundenschnelle den Anschein von menschlichem Denken erwecken kann, neue Möglichkeiten eröffnet, etwas falsch zu machen.

Die KI-Giganten sind sich des Problems durchaus bewusst und befürchten, dass ihre Modelle zu schlechtem Verhalten verfallen oder eine westliche Gesellschaft übermäßig widerspiegeln könnten, wenn ihre Nutzerbasis global ist.

„Wir haben Leute aus Indonesien oder den USA, die Fragen stellen“, sagte Google-Chef Sundar Pichai und erklärte, warum Anfragen nach Bildern von Ärzten oder Anwälten darauf abzielen, die Rassenvielfalt widerzuspiegeln.

Doch diese Überlegungen können absurde Ausmaße annehmen und zu wütenden Vorwürfen übermäßiger politischer Korrektheit führen.

Dies geschah, als der Gemini-Bildgenerator von Google ein Bild deutscher Soldaten aus dem Zweiten Weltkrieg ausspuckte, auf dem absurderweise ein schwarzer Mann und eine asiatische Frau zu sehen waren.

„Offensichtlich bestand der Fehler darin, dass wir zu viel aufgetragen haben … wo es nie hätte angewendet werden dürfen. Das war ein Fehler und wir haben uns geirrt“, sagte Pichai.

Aber Sasha Luccioni, Forschungswissenschaftlerin bei Hugging Face, einer führenden Plattform für KI-Modelle, bestätigte, dass „die Annahme, dass es eine technologische Lösung für Voreingenommenheit gibt, bereits auf dem falschen Weg ist.“

Bei der generativen KI gehe es im Wesentlichen darum, ob die Ausgabe „dem entspricht, was der Benutzer erwartet“, und das sei weitgehend subjektiv, sagte sie.

Die riesigen Modelle, auf denen ChatGPT basiert, „können nicht darüber nachdenken, was voreingenommen ist und was nicht, also können sie nichts dagegen tun“, warnte Jayden Ziegler, Produktleiter bei Alembic Technologies.

Zumindest im Moment liegt es an den Menschen, dafür zu sorgen, dass die KI das generiert, was angemessen ist oder ihre Erwartungen erfüllt.

„Eingebackene“ Voreingenommenheit

Aber angesichts der Aufregung um KI ist das keine leichte Aufgabe.

Hugging Face verfügt auf seiner Plattform über etwa 600.000 KI- oder maschinelle Lernmodelle.

„Alle paar Wochen kommt ein neues Modell heraus und wir geben uns alle Mühe, Vorurteile oder unerwünschte Verhaltensweisen einfach zu bewerten und zu dokumentieren“, sagte Luccioni.

Eine in der Entwicklung befindliche Methode ist die sogenannte algorithmische Degorgierung, die es Ingenieuren ermöglichen würde, Inhalte herauszuschneiden, ohne das gesamte Modell zu ruinieren.

Es gibt jedoch ernsthafte Zweifel, dass dies tatsächlich funktionieren kann.

Eine andere Methode würde ein Modell „ermutigen“, in die richtige Richtung zu gehen, es „feinabstimmen“ und „richtig und falsch belohnen“, sagte Ram Sriharsha, Chief Technology Officer bei Pinecone.

Pinecone ist ein Spezialist für Retrieval Augmented Generation (RAG), eine Technik, bei der das Modell Informationen von einer festen, vertrauenswürdigen Quelle abruft.

Für Weaver vom Texas Opportunity & Justice Incubator sind diese „edlen“ Versuche, Voreingenommenheit zu beseitigen, „Projektionen unserer Hoffnungen und Träume darüber, wie eine bessere Version der Zukunft aussehen kann“.

Aber Voreingenommenheit „gehört auch dazu, was es bedeutet, ein Mensch zu sein, und deshalb ist sie auch in der KI verankert“, sagte er.

-

PREV Moskau fordert Kiew auf, über einen Friedensvorschlag nachzudenken, da sich seine Position an der Front „verschlechtere“.
NEXT 24 Stunden nach seiner Verurteilung | Donald Trump sammelt mehr als 50 Millionen Dollar