- KI-Unternehmen haben ihre Wahlangebote und Richtlinien vor dem Wahltag angepasst.
- Perplexity hat einen Election Information Hub mit Informationen zu Kandidaten, Wahllogistik und Ergebnissen eingerichtet.
- Unterdessen schränkt Google KI-generierte Wahlinhalte ein, um die damit verbundenen Risiken zu vermeiden.
ChatGPT existierte bei der letzten Präsidentschaftswahl im Jahr 2020 nicht Markteinführung vor zwei Jahren löste eine Welle generativer KI-Chatbots und -Tools aus, die in beliebte Verbraucherprodukte wie die Google-Suche integriert wurden.
Vor der Wahl mussten die Unternehmen, die hinter den Produkten stehen, entscheiden, welche Einschränkungen sie gegebenenfalls für KI-generierte Inhalte im Zusammenhang mit der Wahl einführen würden, und dabei die damit verbundenen Risiken analysieren.
Einige, wie das KI-Startup Perplexity, tendieren lautstark dazu, KI zur Beantwortung von Fragen zur Wahl einzusetzen.
Die KI-Suchmaschine hat einen speziellen „Election Information Hub“ gestartet, der KI nutzt, um Informationen über die bevorstehende Wahl bereitzustellen und Ergebnisse zu verfolgen. Der Hub enthält Einzelheiten zu den Wahlvoraussetzungen, zur Suche nach Ihrem Wahllokal und zu den Wahlzeiten sowie eine KI-zusammengefasste Analyse zu Wahlmaßnahmen und Kandidaten, schrieb das Unternehmen in einer Ankündigung.
„Perplexity verwendet einen Prozess namens Retrieval-Augmented Generation, um relevante Informationen zu identifizieren und sie auf eine Weise zusammenzufassen, die auf die Anfrage eines Benutzers zugeschnitten ist“, sagte Perplexity-Sprecherin Sara Platnick gegenüber Business Insider.
Für wahlbezogene Fragen nutze das Unternehmen einen „kuratierten Satz“ unparteiischer und faktengeprüfter Quellen, so das Unternehmen. Der separate Hub nutzt in seinen Antworten kein gespeichertes Wissen aus den Trainingsdaten des Modells, was dazu beiträgt, Halluzinationen zu minimieren, sagte Platnick gegenüber BI.
Perplexity wird ab Dienstag auch Live-Updates zu den Wahlen anbieten und dabei Daten von The Associated Press nutzen. Andere Antworten würden Informationen von Democracy Works und anderen überparteilichen Faktenquellen wie Ballotpedia und Nachrichtenorganisationen nutzen, sagte Platnick.
Alon Yamin, Mitbegründer und CEO der KI-basierten Textanalyseplattform Copyleaks, sagte, der Ansatz von Perplexity „kann sicherlich dabei helfen, Inhalte zu filtern und zu kontextualisieren“ und Benutzern den Zugriff auf zuverlässige Quellen erleichtern.
Yamin sagte, dass der Einsatz von KI für Wahlinformationen potenzielle Vorteile mit sich bringe. KI kann Aktualisierungen in Echtzeit bereitstellen und dabei helfen, Trends, Wählerstimmung und Schlüsselthemen zu erkennen.
Yamin sagte jedoch, dass die Möglichkeit von KI-Halluzinationen und Genauigkeitsproblemen Risiken berge.
Andere Unternehmen verfolgen andere Ansätze. OpenAI wird weiterhin wahlbezogene Antworten in ChatGPT integrieren und gleichzeitig im Hinblick auf die Wahl einige zusätzliche Funktionen bereitstellen.
Ab dem 5. November werden diejenigen, die ChatGPT nach Wahlergebnissen fragen, eine Nachricht sehen, die Benutzer dazu auffordert, Quellen wie Associated Press und Reuters oder staatliche und lokale Wahlausschüsse nach „vollständigsten und aktuellsten Informationen“ zu durchsuchen sagte das Unternehmen in einem am 31. Oktober aktualisierten Beitrag.
OpenAI sagte, es teste „aktiv die im letzten Jahr eingeführten Schutzmaßnahmen“ und beobachte etwaige Probleme. Das Unternehmen kündigte außerdem an, dass es seine Schutzmaßnahmen weiter anpassen werde, darunter die Transparenz von KI-generierten Inhalten und die Verhinderung, dass Chatbots vorgeben, echte Menschen zu sein.
ChatGPT leitet Benutzer auch auf die US-Wahlinformationsseite CanIVote.org weiter, wenn ihnen verfahrenstechnische Fragen im Zusammenhang mit Wahlen gestellt werden.
Claude von Anthropic hat in ähnlicher Weise eine Popup-Funktion implementiert, die es Benutzern ermöglicht, die nach Abstimmungsinformationen fragen, zu TurboVote umgeleitet zu werden, einer überparteilichen Ressource von Democracy Works, heißt es in einem Beitrag.
Anthropic verfügt über weitere Schutzmaßnahmen, einschließlich des Verbots für Benutzer, es zur Werbung für einen bestimmten Kandidaten oder ein bestimmtes Thema zu verwenden. Es hieß, es würde auch verhindern, dass der Chatbot zur Generierung von Fehlinformationen über Wahlgesetze, Kandidaten oder verwandte Themen verwendet würde. In seinem Beitrag sagte das Unternehmen, dass die Ausgaben auf reine Textausgaben beschränkt werden, um „das Risiko von wahlbezogenen Deepfakes“ zu eliminieren.
Während die Live-Wahlaktualisierungen für Benutzer hilfreich sein können, bergen KI-generierte Wahlinhalte eine Reihe von Risiken.
Yamin sagte, KI könne voreingenommene Informationen verbreiten, Daten falsch interpretieren und falsche Narrative erzeugen. Er fügte außerdem hinzu, dass diese Modelle „nur so gut sind wie die Daten, auf denen sie trainiert werden“, was das Risiko birgt, dass KI-generierte Antworten die Verzerrung der Daten widerspiegeln, auf denen sie trainiert werden.
Missverständnisse könnten sich verstärken, wenn KI Informationen falsch interpretiert und ungenaue Ergebnisse liefert, insbesondere in einem schnelllebigen und aufmerksam verfolgten Wahlumfeld, sagte Yamin gegenüber BI.
Googledas mit seinen Gemini AI und AI Overviews einige vielbeachtete KI-Misserfolge erlebte, entschied sich dafür, Beschränkungen einzuführen, was Benutzer seine KI-Produkte zur Wahl fragen können. Google hat erklärt, dass es seinen KI-Chatbot Gemini daran hindert, Fragen zu beantworten Wahlen „aus großer Vorsicht.“
Eine ähnliche Suche im Hauptsuchprodukt von Google am Dienstag löste keine AI-Übersichtszusammenfassung aus, die das „Top Stories“-Karussell mit Geschichten von Verlagen anzeigte.
Google reagierte nicht sofort auf eine Bitte um einen Kommentar von Business Insider.
Brad Carson, Mitbegründer und Präsident der gemeinnützigen Organisation Americans for Responsible Innovation, sagte gegenüber BI, dass der Ansatz von Google zwar lobenswert sei, aber keine globale Lösung des Problems sei.
Carson sagte, die Bekämpfung von Desinformation sei „keine leichte Aufgabe“, und obwohl es für Unternehmen klug sei, mehr zu tun, um Fehlinformationen einzuschränken, sollte die Regierung an einer Gesetzgebung arbeiten, die KI-Unternehmen dazu verpflichtet, die Informationen, die sie den Benutzern bereitstellen, klar zu kennzeichnen.
„Ich denke, dass andere Produkte wahrscheinlich die Lücke füllen werden, die Google räumt, aber ich denke, es liegt in der Verantwortung von Google, hier etwas Abstand zu nehmen“, sagte Carson.