Künstliche Intelligenz ist eine spaltende Technologie: Sie ist unbestreitbar das Herzstück des technologischen Fortschritts unserer Zeit, aber diejenigen, die sie studieren und an ihrer Entwicklung teilnehmen, müssen selbst die Öffentlichkeit warnen.
Einer der Empfänger des Nobelpreises für Physik 2024, John Hopfield, wurde zwar für seine Arbeit zum „automatischen Lernen“ künstlicher Intelligenz ausgezeichnet, warnte die Gesellschaft jedoch selbst vor einem möglichen Verlust der Kontrolle und des Verständnisses der KI, den er als „sehr besorgniserregend“ bezeichnete. ”
Aber ist uns bewusst, was künstliche Intelligenz in unserem täglichen Leben bedeutet? Und vor allem: Bringt diese Präsenz in unserem Alltag Gefahren mit sich? Doktor Felix Pflücke, Postdoktorand an der Universität Luxemburg, beantwortet unsere Fragen.
Wie KI in unser tägliches Leben passt
Ein weiterer Schritt in der Beziehung zwischen Öffentlichkeit und künstlicher Intelligenz wurde mit der Entwicklung von Chatbots (generative künstliche Intelligenz) getan, wie beispielsweise ChatGPT im Jahr 2022, um eines der konkretesten und am weitesten verbreiteten Beispiele zu nennen. Allerdings ist KI bereits in einem Tool vorhanden, das wir fast täglich nutzen: soziale Netzwerke. „Künstliche Intelligenz schlägt anhand von Algorithmen für jeden Verbraucher passendere Inhalte vor, basierend auf seinen Suchanfragen, der Zeit, die er mit dem Ansehen von Videos verbringt, basierend auf den Inhalten, die ihm gefallen …“, erklärt Felix Pflücke. „KI ermöglicht es auch, dem Verbraucher gezielte Vorschläge zu machen, etwa wenn er online einkaufen möchte“, so der Forscher weiter.
KI funktioniert auch in anderen Gesellschaftsschichten gut: „Der Bankensektor nutzt häufig künstliche Intelligenz. Auch einige Verwaltungen nutzen es, etwa wenn ein Visum generiert werden muss“, ergänzt Felix Pflücke, Autor mehrerer Studien zum Thema Künstliche Intelligenz.
Was die positiven Aspekte des Einsatzes künstlicher Intelligenz betrifft, ist Felix Pflücke der Ansicht, dass diese Technologie „es ermöglicht, viele Prozesse zu vereinfachen und von maßgeschneiderten, für den Verbraucher nützlichen Inhalten zu profitieren“.
Eine Regelung zum Schutz vor möglichen Missbräuchen
Es sind jedoch Nuancen zu berücksichtigen. Während einer Konferenz, die am Freitag, dem 25. Oktober, im Europäischen Parlament stattfand, erklärte Juha Heikkilä, Berater für künstliche Intelligenz bei der Europäischen Kommission, dass „der Schutz grundlegender Verbraucherrechte einen spezifischen Rechtsakt erfordern muss“. So entstand das „KI-Gesetz“ oder die „Verordnung über künstliche Intelligenz“. Es tritt am 1. August in Kraft und legt einen rechtlichen Rahmen für den Einsatz von KI in der Europäischen Union fest. Insbesondere finden wir folgende Ziele:
-
Schutz von Gesundheit, Sicherheit und Grundrechten
-
Ein Ansatz, der auf einer Risikobewertung basiert
-
Intervention bei Bedarf
-
Betrieb im Einklang mit den geltenden Gesetzen
Juha Heikkilä präsentierte damit eine Risikopyramide, unterteilt in vier Stufen: „inakzeptabel“, „hoch“, „begrenzt“ und „minimal“. Felix Pflücke, der neben Herrn Heikkilä auf dieser Konferenz sprach, erklärt, was diese Werte bedeuten: „Das inakzeptable Risiko wird erreicht, wenn beispielsweise eine Regierung KI einsetzt, um eine soziale Bewertung der Bürger durchzuführen.“ Das hohe Risiko entsteht, wenn KI in sensiblen Bereichen wie Gesundheit, Bildung oder Finanzen eingesetzt wird. Das begrenzte Risiko betrifft Chatbots: Hier ist lediglich Transparenz erforderlich. Ein minimales oder gar kein Risiko besteht beispielsweise für Spamfilter, die mit künstlicher Automatisierung arbeiten.
Laut dem Forscher „können die Bußgelder sehr hoch sein: Sie können bis zu 35 Millionen Euro oder bis zu 7 % des Umsatzes eines Unternehmens erreichen.“ Allerdings müssen wir noch warten: Die Umsetzung des KI-Gesetzes erfolgt schrittweise und alle Bestimmungen sollen innerhalb von maximal drei Jahren umgesetzt werden.
Ein ebenso düsterer wie beispielloser Fall stellt die Beziehung zwischen KI und Menschen in Frage
Seit einigen Tagen steht die KI im Mittelpunkt einer dunklen Angelegenheit: Sewell Setzer III, ein 14-jähriger amerikanischer Teenager, beging Selbstmord, nachdem er eine obsessive Beziehung zu einer künstlichen Intelligenz aus der Charakteranwendung KI entwickelt hatte. Seine Mutter, Megan Garcia, reichte Beschwerde ein und glaubte, dass diese Technologie direkt für den Tod ihres Sohnes verantwortlich sei. Dies ist einer der ersten Todesfälle, die mit einer Interaktion zwischen einem Menschen und einer künstlichen Intelligenz in Zusammenhang stehen.
Im weiteren Verlauf der Ermittlungen wirft dieser Fall die Frage auf, ob eine oder mehrere Personen, die an der Entwicklung künstlicher Intelligenz beteiligt sind, strafrechtlich verantwortlich sind. Hat die Charakter-KI den Teenager tatsächlich zum Selbstmord angestiftet? Können die App-Entwickler verklagt werden? Die Antworten auf diese Fragen können erst am Ende der Untersuchung gegeben werden.