James W. Marshall und ChatGPT 3.5 haben eines gemeinsam: Beide lösten einen „Ansturm“ aus, der die Welt veränderte. Die Entdeckung des ersten Goldnuggets im Jahr 1848 trieb 300.000 Menschen nach Kalifornien. Die Einführung von ChatGPT 3.5 im November 2022 brachte KI und große Sprachmodelle (LLM) in den Vordergrund und zog Millionen von Benutzern auf der ganzen Welt an.
Der Aufstieg der KI hat schnell entscheidende Fragen aufgeworfen: Achtung des Urheberrechts, algorithmische Voreingenommenheit, ethische Fragen, Datenvertraulichkeit, Sicherheit und Auswirkungen auf die Beschäftigung. Der Wunsch der EU, KI über das KI-Gesetz zu regulieren, kommt zur rechten Zeit. In diesem Zusammenhang erkunden Unternehmen auf der ganzen Welt die Möglichkeiten, die KI bietet, um ihre Abläufe zu optimieren und das Wachstum voranzutreiben.
Verschweigen Sie nicht die Risiken und Nebenwirkungen
KI ist der neue Goldrausch, aber seien Sie vorsichtig, nicht in die Falle des digitalen Wilden Westens zu tappen! Zu viele Unternehmen stürzen sich darauf, ohne sich der Gefahren bewusst zu sein, obwohl sie die Verantwortung haben, KI verantwortungsvoll und ethisch zu nutzen.
Die Risiken sind real: Datenlecks, algorithmische Voreingenommenheit, Rufschädigung. Das Beispiel des Chatbots Tay im Jahr 2016 mit rassistischen und frauenfeindlichen Auswüchsen erinnert an die möglichen Gefahren. Verbraucherbedenken, reflektiert in einer aktuellen Studie
(78 % sind besorgt darüber, dass ihre Daten von KI verwendet werden) unterstreicht die Bedeutung eines sorgfältigen und transparenten Ansatzes.
KI ist bereits weit verbreitet, allerdings oft ohne Governance, wie es bei der überstürzten Einführung der Cloud der Fall war. Dieser Mangel an Kontrolle kann zu kostspieligen Fehlern führen. Um die Wiederholung derselben Fehler zu vermeiden, müssen Unternehmen den Einsatz von KI unbedingt überwachen. Dies erfordert eine interne Regulierung, eine strenge Zugriffskontrolle und die Festlegung klarer Nutzungsrichtlinien. Unternehmen wie Amazon und JPMC haben bereits Maßnahmen ergriffen, indem sie den Zugang zu ChatGPT eingeschränkt haben und eine schrittweise und kontrollierte Wiedereinführung geplant haben
Sicherheitsvorkehrungen vorhanden sind.
Es ist wichtig, dass Unternehmen klar festlegen, welche Daten ihre KI-Projekte wie nutzen können. Ein rollenbasiertes Zugriffskontrollsystem, das jede Rolle mit spezifischen Aufgaben und Berechtigungen für jede Datenquelle verknüpft, bietet eine skalierbare Lösung. Dieses System stellt sicher, dass nur Personen mit den erforderlichen Berechtigungen unter Einhaltung gesetzlicher Vorschriften und geografischer Anforderungen, einschließlich der Souveränität, auf Daten zugreifen können
Daten.
Ein oft übersehener, aber entscheidender Aspekt ist die Rückverfolgbarkeit der Daten, die zum Trainieren von KI-Modellen verwendet werden. Um zu verstehen, wie KI funktioniert und mögliche Verzerrungen auftreten, ist es wichtig zu wissen, welche Daten in welcher Reihenfolge verwendet wurden. Dieser Mangel an Transparenz kann erhebliche rechtliche, moralische und ethische Konsequenzen haben, insbesondere wenn die KI eine folgenschwere Entscheidung trifft. Im Streitfall wird die Nachvollziehbarkeit des KI-Lernens ein zentrales Element sein. Daher ist die Führung einer vollständigen Historie der Trainingsversionen unerlässlich.
-Förderung der Transparenz von Lernprozessen und der „Reversibilität“
Die Klassifizierung und Dokumentation von Trainingsdaten ist für die Transparenz und Qualität des KI-Lernens von entscheidender Bedeutung. Doch trotz der besten Absichten können die Komplexität und der Zeitaufwand für die Implementierung von KI-Lernprozessen zu Risiken und Missbräuchen führen.
Nehmen Sie das Beispiel Tesla, das seine KI seit Jahren für das autonome Fahren trainiert. Wie können wir es wirksam vor Fehlern, Verlust, Diebstahl oder Manipulation schützen? Wie können wir die Achtung des geistigen Eigentums bei der KI-Ausbildung gewährleisten, wie die Klage der New York Times zeigt, deren Artikel ohne Genehmigung zur Ausbildung von LLMs verwendet wurden? Ein verantwortungsbewusster und kontrollierter Ansatz ist unerlässlich.
Bisher gibt es keine Technologie, die die Veränderungen, die ein KI-Modell erfährt, während es mit neuen Daten trainiert, genau aufzeichnen kann. Wenn ein Modell mit fehlerhaften Daten, beispielsweise urheberrechtlich geschützten Inhalten, trainiert wird, ist es nicht möglich, den vorherigen Zustand direkt wiederherzustellen.
Es sind Workarounds erforderlich, die sich an IT-Sicherheitspraktiken orientieren. Insbesondere System-Snapshots, mit denen Sie auf eine frühere Version zurückgreifen können, bieten eine Alternative, auch wenn einige aktuelle Daten verloren gehen. Unternehmen sollten diesen Ansatz zum Management von KI-Risiken in Betracht ziehen.
Par Laurent GarciaVertriebsleiter Südeuropa bei Cohesity