Seit dem 15. Januar hat Google eine Anforderung eingeführt, das Scraping seiner SERPs einzuschränken: die Aktivierung von JavaScript für den Zugriff auf seine Suchmaschine. Während diese Entscheidung als eine Verbesserung der Dienste für Benutzer erklärt wurde, gehen ihre Konsequenzen weit darüber hinaus und wirken sich direkt auf SEO-Tools und LLMs wie OpenAI aus.
Was Sie beachten sollten:
- Google möchte eine JavaScript-Aktivierung verlangen, um auf seine Suchmaschine zugreifen zu können, was sich auf SEO-Tools und LLMs auswirkt.
- Ziel dieser Maßnahme ist es, den Schutz vor Scraping, Spam und Missbrauch zu stärken.
- SEO-Tools müssen sich anpassen, insbesondere über Headless-Browser, aber dies könnte die Kosten erhöhen und die Geschwindigkeit verringern.
- Dank gegenseitiger Hilfe fand die französische SEO-Community schnell Lösungen ????
Die erklärten Ziele von Google
Laut einem von TechCrunch interviewten Google-Sprecher ist die Neu muss JavaScript aktiviert werden, um auf die Suchmaschine zugreifen zu können ist motiviert durch:
- Schützen Sie Ihre Dienste vor Missbrauch wie intensivem Scraping und Spam.
- Bieten Sie personalisiertere und aktuellere Suchergebnisse.
JavaScript ermöglicht es, missbräuchliche Anfragen einzuschränken, dank Techniken wie geschwindigkeitsbegrenzendund stärkt Kontrollmechanismen gegen Bots. Allerdings betrifft diese Maßnahme einen erheblichen Teil der Nutzer: Derzeit werden etwa 8,5 Milliarden Suchanfragen pro Tag ohne JavaScript durchgeführtlaut diesem Sprecher!
SEO-Tools im Aufruhr
SEO-Tools, von denen viele auf dem Scraping von Ergebnisseiten basieren, um wichtige Daten zu sammeln, waren von dieser Änderung durch Google direkt betroffen und wurden ganz oder teilweise blockiert. Wir hatten letzte Woche bereits darüber kommuniziert „Versagen von SEO-Tools“, als die Wirkung nach dem Post von Vincent Terrasi spürbar wurde.
Adrian Delmarre, Gründer des Tools Haloscanberichtete uns: „Die Änderungen am Donnerstag/Freitag haben uns letztendlich eher mäßig getroffen. Wir haben am Donnerstag rund 50 % unserer Scraping-Kapazität verloren (ich möchte darauf hinweisen, dass dies keinerlei Auswirkungen auf den Betrieb von Haloscan hatte, das jederzeit zu 100 % verfügbar und nutzbar blieb). Am späten Freitagnachmittag kehrten wir zu voller Stärke zurück. Ohne zusätzliche Kosten, insbesondere dank eines Tipps von Paul Sanches.„
Vielen Dank an die Reaktionsfähigkeit und den Austausch innerhalb der französischen SEO-Community ???? und Hut ab vor Paul, der die ideale Lösung gefunden hat, die vielen Tools geholfen hat.
„Google hat etwas geändert. Es passiert oft, aber im Allgemeinen schaffen wir es, ohne dass es gesehen wird.„, erklärt Adrian und betont gleichzeitig, dass wir nicht katastrophal sein dürfen. „Dies ist nicht das Ende von SEO. Es wird weitere Änderungen geben. Wir werden uns anpassen. Das ist das Prinzip von SEO, oder?„
Wenn Google eine zwingende Ausführung von JavaScript für den Zugriff auf seine SERPs mitteilt, sei es laut Adrian „noch“ nicht notwendig, JavaScript zu aktivieren und somit einen Browser für alle Aufrufe zu emulieren. Vielleicht wird dies bald der Fall sein.
-Eine Maßnahme, die sich vor allem gegen LLMs richtet?
Für mehrere Experten scheint diese Entscheidung von Google vor allem auf linguistische Modelle abzuzielen, wie sie von OpenAI oder Perplexity entwickelt wurden. In einem Webinare organisiert am 21. Januar von Olivier Duffez, Fabien Faceries (MyRankingMetrics) und Vincent Terrasi (Draft’n’Goal)Experten erklärten, dass LLMs die besten Inhalte von Google übernehmen und sie zur Beantwortung von Nutzeranfragen wiederverwenden. Dies stellt ein doppeltes Problem dar: Einerseits verliert Google die Kontrolle über diese Daten und profitiert nicht direkt von deren Ausbeutung. Andererseits machen diese Tools einige Nutzer unabhängiger von Google.
Diese Interpretation wird von Adrian Delmarre geteilt: „Vielleicht zielt Google nicht auf SEO-Tools ab, sondern auf seine Konkurrenten wie LLMs. Wenn ja, ist das eine gute Nachricht für uns, denn diese Modelle passen sich schnell an und zeigen Google, dass es keinen Nutzen bringt, sie zu blockieren.„.
Konsequenzen und Lösungen für Profis
Diese Google-Änderungen betreffen nicht nur Scraper, sondern auch Tools zur semantischen Optimierung, Positionierungsverfolgung, KI-Schreiben oder Kannibalisierungsanalyse.
Die zur Anpassung an diese neue Realität vorgesehenen Lösungen haben jedoch Grenzen:
- Verwendung von JavaScript. Dieser Ansatz erfordert ein vollständiges Rendern der Seiten, was die technischen Kosten für die Tools erheblich erhöht.
- Verschärfung der Beschränkungen durch Google. Die mögliche Hinzufügung von Fallen oder neuen Anti-Scraping-Regeln könnte diese Lösungen noch komplexer und immer schwieriger zu umgehen machen.
- Reduzierte Ausführungsgeschwindigkeit. Vincent Terrasi weist darauf hin, dass die Kosten der Werkzeuge in ihrer jetzigen Form kurzfristig nicht steigen dürften. Ihre Echtzeitgeschwindigkeit könnte jedoch beeinträchtigt sein, obwohl dies für SEO, bei dem es nicht auf Unmittelbarkeit ankommt, nicht unbedingt kritisch ist.
Eine unterstützende SEO-Community
Die Reaktion der SEO-Community auf diesen Umbruch hat eine bemerkenswerte Fähigkeit zur Anpassung und Zusammenarbeit deutlich gemacht (trotz der SEO-Dramen!). Der Tipp von Paul Sanches, der es mehreren Tools ermöglichte, die JavaScript-Beschränkung schnell zu umgehen, ist ein eindrucksvolles Beispiel für diese Solidarität und das erwärmt das Herz.
Vielen Dank auch an Olivier Duffez und Fabien Faceries, die so schnell ein Webinar organisiert haben, um eine Bestandsaufnahme der Situation, des Kontexts des Ausfalls und der von den SEO-Tools gefundenen Lösungen zu machen!
Vincent Terrasi lädt SEOs ein, Pläne B, C usw. zu entwickeln, um dies zu können Vergleichen Sie die Daten mit Querverweisen ohne auf ein einziges Tool angewiesen zu sein, um zu vermeiden, dass Sie im Falle eines Serviceausfalls ohne Kennzahlen dastehen. Dir fehlt nur ein Wesen und alles ist entvölkert!