Ursprünglich beziehe sich Slop auf den Schlammhaufen, der nach und nach den Boden der Tanks von Schiffen, insbesondere Öltankern, bedeckt, schrieb Courrier International im vergangenen Juni. Der Begriff wird seit einigen Monaten auch verwendet, um durch KI generierte Low-End-Inhalte zu bezeichnen, die das Web zunehmend überschwemmen.
Der Mist begnügt sich nicht mit der Verschmutzung von Amazon Books und Youtube (bis hin zu den Philosophie-Kanälen, wie Herr Phi kürzlich anmerkte), er würde auch die Medium-Blogging-Plattform überfallen. WIRED sagt tatsächlich, dass es das auf die Erkennung künstlicher Intelligenz spezialisierte Unternehmen Pangram Labs damit beauftragt hat, eine Stichprobe von 274.466 aktuellen Artikeln zu analysieren, die über einen Zeitraum von sechs Wochen auf der Plattform veröffentlicht wurden.
Das Start-up, das seine Technologie als „ am genauesten für die Erkennung von KI-generierten Inhalten im großen Maßstab “, mit einer Genauigkeitsrate von „ mehr als 99,98 % “, schätzte, dass mehr als 47 % davon wahrscheinlich durch KI (GenAI) generiert wurden.
WIRED hat ein zweites Start-up, das sich ebenfalls der Erkennung von GenAI-Inhalten widmet, Originality AI, gebeten, zwei Stichproben von Medium-Beiträgen zu vergleichen, einer aus dem Jahr 2018, der andere aus diesem Jahr. 3,4 % der ersten wurden wahrscheinlich durch KI generiert.
Ein Prozentsatz, der der Falsch-Positiv-Rate des Unternehmens entspricht, gibt CEO John Gillham an, zumal KI-Tools noch nicht weit verbreitet waren. Umgekehrt dürften knapp über 40 % der Stichprobe 2024 durch KI generiert worden sein.
7 % der Nachrichtenartikel werden von KI generiert
« Das sind zwei Größenordnungen mehr als das, was ich im Rest des Internets sehe “, sagt Max Spero, CEO von Pangram, gegenüber WIRED. Im August hatte das Start-up tatsächlich 857.43 Artikel analysiert, die an einem einzigen Tag im vergangenen Juli auf 26.675 Informations-Websites veröffentlicht wurden, und festgestellt, dass 59.653 davon oder 6,96 % ganz oder teilweise (50 bis 100 %) ), geschrieben von AI.
Ghana steht mit fast 33 % der GenAI-Artikel an der Spitze der Länder, die KI am häufigsten nutzen, gefolgt von Peru (mehr als 20 %), Brasilien, Kolumbien und Pakistan (16 %). Während Frankreich (8 %) auf dem vorletzten Platz der Rangliste landete, knapp hinter Singapur und Spanien, nannte letzteres hauptsächlich Länder in Südamerika, Westafrika und Südasien und kein anderes europäisches oder nordamerikanisches Land.
Technologie stand an der Spitze der am stärksten durch GenAI-Inhalte belasteten Themen, vor Schönheit (aufgrund gesponserter Artikel), Wirtschaft, Gaming, Finanzen und Wissenschaft, insbesondere im Zusammenhang mit Betrügereien im Zusammenhang mit Krypto-Assets.
Putaclics fordert Werbung und Krypto-Betrug
Pangram hatte mehrere Arten von GenAI-Artikeln identifiziert. Manche zielen nur darauf ab, „zu erfüllen“ Websites, die für Werbung konzipiert sind » (Made-for-Advertising-Sites oder MFAs), um Leser anzulocken und sie mit Low-End-Werbung bekannt zu machen.
Ihr Inhalt ist daher nicht „ nicht wirklich zum Lesen gedacht “, sondern nur, um Kunden anzulocken, insbesondere über „putaclics“-Titel. Werbetreibende wissen auch nicht, dass sie ihre Werbung auf diesen Low-End-Websites schalten. Pangram schätzt, dass MFAs etwa 50 % des GenAI-Inhalts ausmachen.
Das Unternehmen stellte außerdem fest, dass ein „ Großteil » Artikel zum Thema Schönheit wurden tatsächlich „gesponsert“ und daher von Kommunikatoren und Redakteuren verfasst, die das Schreiben solcher Inhalte an KIs vergeben. Ebenso erweisen sich viele mit neuen Krypto-Assets verknüpfte Gebrauchsanweisungen als Betrug, deren Verfassen wiederum an KI ausgelagert wird.
78 % der mit NFT, web3 und Ethereum getaggten Artikel waren GenAI
Auf Medium wurden wahrscheinlich auch 4.492 der 5.712 mit NFT getaggten Artikel (oder 78 %) von KI generiert. Ein unverhältnismäßiger Anteil, den Pangram auch in Artikeln mit den Bezeichnungen web3, Ethereum, „AI“ und… Haustiere beobachtete.
McKenzie Sadeghi, Redakteurin bei NewsGuard, einem Unternehmen zur Online-Überwachung von Fehlinformationen, das mehr als 1.000 GenAI-Nachrichten-Websites identifiziert hat, stellte fest, dass es bei den meisten Inhalten dieser Art um Kryptoassets, Marketing und Suchmaschinenoptimierung (SEO) ging.
Auch die zahlreichen Berichte, die offenbar erhebliche Mengen an KI-generierten Dokumenten veröffentlicht haben, betreffen, wenn überhaupt, nur eine kleine Leserschaft, stellt WIRED fest. Ein von Pangram Labs gemeldeter Bericht, der mehrere Artikel über Kryptos geschrieben hat, hatte sechs davon an nur einem Tag veröffentlicht, jedoch ohne jegliche Interaktion, was auf eine vernachlässigbare Auswirkung schließen lässt.
Umgekehrt stellte WIRED auch fest, dass andere Artikel, die von Pangram, Originality und der KI-Erkennungsfirma Reality Defender als wahrscheinlich KI-generiert gekennzeichnet wurden, Hunderte von „Klatschen“ aufwiesen, ähnlich den „Gefällt mir“-Angaben, die wir auf anderen Plattformen finden, ohne jedoch zu wissen, ob sie herkamen Menschen oder Bots.
Das Medium ist für das menschliche Geschichtenerzählen gedacht, nicht für GenAI-Artikel
« Medium funktioniert im Wesentlichen dank der menschlichen Kuration „, erwidert Tony Stubblebine, der CEO der Plattform, und verweist auf die 9.000 Chefredakteure von Medium-Publikationen sowie auf die zusätzliche menschliche Bewertung von Artikeln, die wahrscheinlich künstlich „geboostet“ werden.
Wenn er erkennt, dass auf Medium veröffentlichte GenAI-Inhalte „ dürfte sich seit Jahresbeginn verzehnfacht haben „Dennoch lehnt er den Einsatz von KI-Detektoren zur Beurteilung des Ausmaßes des Problems ab, unter anderem weil er glaubt, dass sie nicht zwischen Nachrichten unterscheiden können, die vollständig von KI generiert werden, und Nachrichten, in denen KI in geringerem Umfang eingesetzt wird (was der CEO von Pangram anstrebt). lehnt übrigens ab).
Im Gegensatz zu LinkedIn und Facebook, die den Einsatz von KI ausdrücklich fördern, erlaubt Medium keine GenAI-Artikel mehr. „ Das Medium dient dem menschlichen Geschichtenerzählen, nicht dem KI-generierten Schreiben », unterstrich die Plattform letztes Jahr in ihrem Blog. „ Die überwiegende Mehrheit der auffindbaren KI-generierten Geschichten in Roh-Feeds zu diesen Themen erhält keine Aufrufe », Fügt Stubblebine hinzu.
« Mit zunehmender Verbreitung generativer KI-Tools werden Plattformen, die den Versuch aufgeben, Bots zu eliminieren, eine Online-Welt entstehen lassen, in der von Menschen erstellte Arbeiten auf Plattformen, die von Bots überschwemmt werden, immer schwieriger zu finden sind », schließt WIRED und wiederholt damit die Theorie vom toten Internet.
Sie gilt als Verschwörungstheoretikerin und argumentiert, dass das Internet praktisch nur von Bots bevölkert sei und dass der Großteil der Inhalte von Algorithmen generiert werde, wodurch menschliche Aktivitäten an den Rand gedrängt würden.
Related News :