Heute habe ich beschlossen, etwas Spaß mit KI-Bildgeneratoren zu haben und sie gebeten, mir verschiedene Emotionen im Gesicht einer Person zu zeigen – Wut, Glück, Ekel und so weiter. Wie erwartet zeigten die Ergebnisse typische Ausdrücke. Wut zeigte sich mit gerunzelter Stirn und zusammengebissenen Zähnen, Glück mit einem breiten Lächeln und Ekel mit einer gerümpften Nase.
Aber als ich mir diese Bilder ansah, fühlte sich etwas nicht richtig an. Sind menschliche Emotionen so vorhersehbar?
Die Forschung legt etwas anderes nahe. Emotionen sind unglaublich nuanciert und die Art und Weise, wie wir sie ausdrücken, hängt davon ab, wer wir sind, woher wir kommen und was wir gerade durchmachen. Sie könnten lächeln, wenn Sie wütend sind, weil Sie sich in einem beruflichen Umfeld befinden, oder Sie könnten vor Freude weinen. Der Kontext prägt Ihre Emotionen, und hier wird es schwierig für Emotion AI, eine Technologie, die darauf abzielt, unsere Gefühle anhand von Gesichtsausdrücken, Stimme oder Text zu erkennen und zu interpretieren.
Was ist Emotion-KI?
Emotions-KI oder Affective Computing wurde erstmals in den 1990er Jahren von MIT-Professorin Rosalind Picard konzipiert, die argumentierte, dass Computer Emotionen verstehen müssen, damit sie mit Menschen interagieren können. Was als Stimmungsanalyse begann (d. h. zu interpretieren, ob ein Textabschnitt positiv oder negativ ist), entwickelte sich zu weitaus ehrgeizigeren Versuchen, das gesamte Spektrum menschlicher Emotionen mithilfe von Algorithmen, Kameras und Mikrofonen zu lesen.
Die Stimmungsanalyse ist ein viel einfacherer Prozess. Es sucht im Text nach Schlüsselwörtern wie „glücklich“ oder „frustriert“ und weist eine positive oder negative Bewertung zu. Emotion AI hingegen versucht, tiefer in Gesichtsausdrücke, Stimmtöne oder physiologische Signale einzutauchen, um Emotionen in Echtzeit zu beurteilen. Während die Stimmungsanalyse Ihnen sagt, wie sich jemand aufgrund seiner Sprache fühlt, behauptet Emotion AI, zu wissen, was jemand aufgrund seines Verhaltens fühlt. Ein Prozess, der in Kategorien wie Kundenservice, Vertrieb, Marketing und mehr nützlich sein könnte.
Das letzte Mal, dass Emotions-KI zu einem heißen Thema wurde, war im Jahr 2019, als sich die KI- und ML-Welt auf Computer Vision und nicht auf generative Kunst und Inhalte konzentrierte. Damals ein Forscherteam veröffentlicht Eine Studie kommt zu dem Schluss, dass menschliche Emotionen nicht allein durch Gesichtsbewegungen genau bestimmt werden können. Die Annahme, dass wir KI beibringen können, menschliche Gefühle zu erkennen, indem wir nachahmen, wie Menschen Mimik, Körpersprache und Tonfall lesen, ist in ihrer Annahme fehlerhaft.
Große Technologieunternehmen wie Microsoft, IBM und Google haben alle ihre eigenen Versionen von Emotion AI eingeführt. Die Azure Cognitive Services von Microsoft bieten Emotionserkennung als Teil seiner Computer-Vision-Suite und ermöglichen es Entwicklern, Emotionserkennung in ihre Apps zu integrieren. Google kann mit seiner Cloud Vision API basierend auf der Gesichtsanalyse Emotionen in Fotos kennzeichnen: Glück, Wut, Überraschung oder Traurigkeit. Darüber hinaus befasst sich Watson von IBM auch mit der emotionalen Analyse und nutzt die Verarbeitung natürlicher Sprache, um Emotionen in Texten zu erkennen.
Doch trotz dieser fortschrittlichen Tools, die heute verfügbar sind, zeigen Untersuchungen, dass die Emotionserkennung nicht so genau ist, wie es scheint. A Bericht von der Association for Psychological Science legt nahe, dass es keinen universellen Ausdruck für Emotionen gibt. Jemand aus einem Teil der Welt könnte sein Glück anders zeigen als jemand aus einem anderen. Noch wichtiger ist, dass viele Verbraucher das Gefühl haben, dass ihre Emotionen werden übersehen bei digitalen Interaktionen, was zu einer Lücke in der Empathie zwischen Mensch und Maschine führt.
Aber Unternehmen setzen jetzt KI-Chatbots und Assistenten ein, um Verbraucher zu bedienen, und das erfordert Genauigkeit. Eine Branche ist besonders begeistert von der Erkennung menschlicher Emotionen – Werbung und Marketing.
Emotion AI: Der Traum des Vermarkters
Stellen Sie sich eine Zukunft vor, in der eine Werbekampagne Ihre Stimmung erkennen und den Inhalt daran anpassen kann. Wenn Sie sich deprimiert fühlen, könnte die KI Sie trösten, wenn Sie glücklich sind, würden Sie etwas Fröhliches und Verspieltes bekommen. Es könnte die Art und Weise verändern, wie Sie einkaufen und mit Marken interagieren.
Marken experimentieren bereits damit. Unilever hat die Gesichtskodierungstechnologie von Affectiva verwendet, um zu verstehen, wie Menschen emotional auf seine Anzeigen reagieren, und um Gesichtsausdrücke zu verfolgen, um zu sehen, ob Zuschauer Glück, Ekel oder Überraschung empfinden. Ebenso waren die Reaktionen auf die KI-Werbung von Coca-Cola überwacht mit Hilfe von EmotionTrac, einem Tool, das emotionale Reaktionen auf Medien durch die Erfassung von Gesichtsausdrücken und anderen biometrischen Daten misst. Die gewonnenen Erkenntnisse zielen darauf ab, personalisierte, emotionsgetriebene Marketingkampagnen zu erstellen.
A jüngste Die Forschung untersuchte auch das Potenzial der KI, menschliche Emotionen in Beiträgen auf X (ehemals Twitter) zu erkennen, insbesondere ihren Einfluss auf das Spenderverhalten gegenüber gemeinnützigen Organisationen. Um die Emotionserkennung zu verbessern, nutzte die Forschung ein Transformer-Transfer-Lernmodell, das anhand umfangreicher Datensätze vorab trainiert wurde, um bestimmte Emotionen in Tweets zu identifizieren. Die Ergebnisse deuten darauf hin, dass die in Posts über gemeinnützige Organisationen zum Ausdruck gebrachten Emotionen die öffentliche Stimmung und das anschließende Spendenverhalten erheblich beeinflussten.
Zuletzt Microsoft aktualisiert Sein Copilot-KI-Assistent verfügt über eine ansprechendere Stimme und Funktionen zur Analyse von Webseiten in Echtzeit, um die Benutzerinteraktion zu verbessern. Dieses Update verfeinerte den Ton von Copilot, sodass es sich wie ein aktiver Zuhörer anfühlt, und führte gleichzeitig Funktionen wie „Think Deeper“ für die Begründung von Entscheidungen und „Copilot Vision“ für die Diskussion darüber ein, was Benutzer in ihrem Browser sehen.
Das Potenzial von Emotion AI im Marketing ist unbestreitbar. Es bietet Marken die Möglichkeit, auf einer tieferen Ebene mit Verbrauchern in Kontakt zu treten. Aber was passiert, wenn die KI zu viel weiß?
Die Herausforderungen beim Erkennen von Emotionen
Es ist eine Sache, wenn eine Anzeige auf die Interessen der Verbraucher auf der Grundlage früherer Käufe abzielt, aber es ist eine ganz andere Sache, wenn sie auf ihre aktuellen emotionalen Schwachstellen abzielt. Die Fähigkeit, ihre Gefühle auszunutzen, könnte zu manipulativen Praktiken führen und sie vielleicht sogar dazu zwingen, Entscheidungen zu treffen.
Es besteht auch die Annahme, dass die KI etwas falsch machen könnte. Wenn man bedenkt, dass die KI noch dabei ist, die Schreibweise zu lernen, könnte sie die Wut eines Verbrauchers falsch interpretieren, um Ruhe zu finden. Kulturelle Unterschiede spielen beim emotionalen Ausdruck eine Rolle und erschweren der KI die universelle Interpretation von Gefühlen. A Studie ergab dass chinesische Teilnehmer dazu neigen, sich mehr auf die Augen zu konzentrieren, um Gesichtsausdrücke zu interpretieren, während westliche Kaukasier den Augenbrauen und dem Mund Bedeutung beimessen. Den Forschungsergebnissen zufolge können diese kulturellen Unterschiede dazu führen, dass emotionale Signale während der interkulturellen Kommunikation falsch interpretiert werden. Wenn Menschen selbst Schwierigkeiten haben, die Gefühle und Signale anderer zu verstehen, wie kann die KI sie dann genau erkennen?
Es gibt das Problem der Voreingenommenheit. KI-Systeme sind nur so gut wie die Daten, auf denen sie trainiert werden, und wenn die Daten auf bestimmte Bevölkerungsgruppen ausgerichtet sind, können die Ergebnisse verzerrt sein. Studien deuten darauf hin, dass bestimmte emotionale KI-Systeme eher dazu neigen negative Emotionen zuordnen auf die Gesichter von Menschen mit dunkler Hautfarbe. Dies wirft Bedenken hinsichtlich möglicher Verzerrungen auf, wenn diese Technologien in Bereichen wie Personalbeschaffung, Leistungsbeurteilung, medizinische Diagnostik oder Strafverfolgung eingesetzt werden.
Darüber hinaus liegt das Problem in den Daten. Unternehmen haben bereits Zugriff auf Ihre Daten und digitalen Algorithmen. Jetzt müssen Verbraucher befürchten, dass Ihre emotionalen Daten an Dritte verkauft werden, damit Marken Ihnen Werbung basierend auf Ihrer Stimmung zeigen können.
Während KI das Kundenerlebnis verbessern kann, besteht auch die Gefahr, dass sie in unsere privaten Gefühle eindringt und diese gewinnbringend ausnutzt. Wenn man bedenkt, dass Emotionen persönlich und subjektiv sind, sollte es der KI erlaubt sein, so viel über unsere innere Welt zu wissen?
Letztendlich erfordert Emotion AI eine sorgfältige Regulierung und ethische Richtlinien, um sicherzustellen, dass unsere Emotionen unsere eigenen bleiben. Das im Mai 2024 verabschiedete KI-Gesetz der Europäischen Union verbietet KI verhindert Verhaltensmanipulation und verbietet die Erkennung von Emotionen an Orten wie Arbeitsplätzen und Schulen. Es ermöglicht die Identifizierung emotionaler Ausdrücke, jedoch nicht der emotionalen Zustände. Beispielsweise könnte ein Call-Center-Manager darauf reagieren, dass die KI einen mürrischen Tonfall erkennt, aber nicht davon ausgehen kann, dass die Person tatsächlich mürrisch ist.
Sind wir angesichts der fortschreitenden Technologieentwicklung bereit für eine Welt, in der Maschinen wissen, wie wir uns fühlen und wie dies die Art und Weise verändern könnte, wie wir mit ihnen und untereinander interagieren? Eines ist sicher: Die KI hat noch einen langen Weg vor sich, bis sie menschliche Emotionen genau erkennen kann. Schließlich habe ich als Regisseur und Produzent Robert De Niro sagte einmal: „Menschen versuchen nicht, ihre Gefühle zu zeigen, sie versuchen, sie zu verbergen.“
Decode ist eine wöchentliche Serie, in der wir entschlüsseln, was in der Welt der sozialen Medien und Technologie passiert.