DayFR Deutsch

ChatGPT lehnte über 250.000 Anfragen zur Generierung von Bildern von Kandidaten ab

-
  • Laut OpenAI lehnte ChatGPT im letzten Monat 250.000 Anfragen nach Deepfake-Bildern von Kandidaten ab.
  • Es beantwortete Millionen von Fragen zum Thema Abstimmung, indem es Benutzer auf offizielle externe Quellen verwies.
  • Einige andere Chatbots verfolgten einen anderen Ansatz.

Vielen Dank für Ihre Anmeldung!

Greifen Sie unterwegs in einem personalisierten Feed auf Ihre Lieblingsthemen zu.

Laden Sie die App herunter

Indem Sie auf „Anmelden“ klicken, akzeptieren Sie unsere Nutzungsbedingungen und Datenschutzbestimmungen. Sie können sich jederzeit abmelden, indem Sie unsere Seite „Einstellungen“ besuchen oder unten in der E-Mail auf „Abbestellen“ klicken.



Im Vorfeld der Präsidentschaftswahlen dieser Woche hat OpenAI Tausende von Anfragen bearbeitet, um gefälschte Bilder von Kandidaten zu erstellen.

Anfang des Jahres gab das Unternehmen für künstliche Intelligenz bekannt, dass seine KI-Produkte „Leitplanken“ hätten, um Missbrauch wie Deepfakes oder Chatbots, die sich als Kandidaten ausgeben, zu verhindern.

Die Ankündigung erfolgte vor dem Hintergrund der Sorge, dass KI während der Kampagne verheerende Schäden anrichten und Deepfakes und Verschwörungstheorien hervorbringen würde, die die Nutzer online verbreiten könnten. Im Januar erhielten Wähler in New Hampshire gefälschte Robocalls von einem falschen Präsidenten Joe Biden, der sie davon abhielt, in diesem Monat an den Präsidentschaftsvorwahlen des Staates teilzunehmen.

Laut OpenAI lehnte ChatGPT im Monat vor der Wahl schätzungsweise 250.000 Anfragen ab, mit DALL-E, dem KI-Kunstgenerator des Unternehmens, Bilder der Kandidaten zu erstellen.

„Wir schätzen, dass ChatGPT im Monat vor dem Wahltag über 250.000 Anfragen zur Erstellung von DALL·E-Bildern des designierten Präsidenten Trump, des Vizepräsidenten Harris, des designierten Vizepräsidenten Vance, des Präsidenten Biden und des Gouverneurs Walz abgelehnt hat“, sagte OpenAI in einem Blogbeitrag am Freitag.

OpenAI sagte zuvor, es werde ChatGPT anweisen, logistische Fragen zur Abstimmung zu beantworten, indem es Benutzer anweist CanIVote.orgeine US-amerikanische Informationsseite zur Wahl, die von der National Association of Secretary of State betrieben wird. Laut Angaben des Unternehmens gab ChatGPT im Monat vor dem 5. November etwa eine Million Antworten mit der Aufforderung an die Nutzer, die Abstimmungsseite zu besuchen.

OpenAI sagte außerdem, dass es am Wahltag Fragen zu Wahlergebnissen beantworten werde, indem es Benutzer an Nachrichtenorganisationen wie Associated Press und Reuters verweise.

„Rund 2 Millionen ChatGPT-Antworten enthielten diese Nachricht am Wahltag und am darauffolgenden Tag“, sagte das Unternehmen im Blogbeitrag vom Freitag.

ChatGPT vermied es auch, politische Meinungen zu Kandidaten zu äußern, im Gegensatz zu Chatbots wie Elon Musks Grok AI, die ihre Begeisterung über den Sieg von Trump zum Ausdruck brachten.

Related News :