Die Authentifizierung von Online-Inhalten ist mit der explosionsartigen Verbreitung der generativen KI zu einem großen Problem geworden, das es ermöglicht, auf einfache Anfrage alle Arten von Inhalten zu erstellen – darunter beispielsweise gefälschte Fotos von Personen oder gefälschte Audioaufnahmen für Betrugszwecke.
OpenAI erklärte, dass es ein Programm zur Erkennung von Bildern entwickelt habe, die von DALL-E 3 generiert wurden.
„Eine mächtige Entdeckung, die die Menschheit bedrohen könnte“: Ein Brief hätte zur überstürzten Entlassung von Sam Altman von OpenAI geführt
Laut internen Tests einer früheren Version des Tools „identifiziert es etwa 98 % der DALL-E 3-Bilder korrekt. Weniger als 0,5 % der nicht KI-generierten Bilder wurden fälschlicherweise DALL-E 3 zugeordnet“, so das kalifornische Unternehmen sagte in einer Online-Erklärung.
Das größtenteils von Microsoft finanzierte Start-up gab jedoch an, dass sein Programm weniger effizient sei, wenn mit DALL-E 3 erstellte Bilder nachträglich retuschiert würden oder wenn sie von anderen Modellen generiert würden.
OpenAI kündigte außerdem an, dass es nun Wasserzeichen zu KI-Bildern hinzufügen wird, um die Standards der Coalition for Content Provenance and Authenticity (C2PA) zu erfüllen.
OpenAI und Microsoft: „Jenseits der KI erleben wir einen ideologischen Konflikt zwischen zwei Fortschrittsvisionen“
C2PA ist eine Initiative der Technologiebranche, die technische Standards zur Bestimmung der Herkunft und Authentizität digitaler Inhalte festlegt.
Letzten Monat gab die Meta Group (Facebook, Instagram) bekannt, dass sie ab Mai mit der Kennzeichnung von KI-generierten Inhalten nach dem C2PA-Standard beginnen werde. Auch sein Nachbar Google hat sich der Initiative angeschlossen.