
Wie KI-gestützte Suchmaschinen das Web-Ökosystem verändern
- in AI Integration
- posted März 10, 2025
In der sich rasant entwickelnden Landschaft der künstlichen Intelligenz vollzieht sich eine stille, aber tiefgreifende Transformation, die unsere Interaktion mit Informationen im Internet neu gestaltet. KI-gestützte Suchmaschinen von Technologiegiganten wie Google, OpenAI und Perplexity versprechen eine effizientere Informationssuche, aber hinter dieser Bequemlichkeit verbirgt sich eine potenzielle Existenzkrise für das offene Web, wie wir es kennen.
Der Einbruch des Datenverkehrs
Die Zahlen sind ernüchternd und aufschlussreich. Laut aktuellen Daten der Content-Lizenzierungsplattform TollBit leiten KI-Suchmaschinen 96% weniger Referrer-Traffic an Nachrichtenseiten und Blogs weiter als die traditionelle Google-Suche. Dieser drastische Rückgang kommt zu einer Zeit, in der das Scraping von Websites durch KI-Entwickler sich mehr als verdoppelt hat, wobei Unternehmen wie OpenAI, Perplexity und Meta im vierten Quartal des letzten Jahres Websites durchschnittlich 2 Millionen Mal gescrapt haben.
Die Auswirkungen gehen über bloße Statistiken hinaus. Das Bildungstechnologieunternehmen Chegg hat bereits die verheerenden Folgen dieser Veränderung erlebt: Der Traffic brach im Januar im Jahresvergleich um 49% ein – eine dramatische Beschleunigung gegenüber dem Rückgang von 8%, der beobachtet wurde, als Google erstmals seine KI-Zusammenfassungen einführte. Die Situation ist so ernst geworden, dass Chegg nun erwägt, sich zu privatisieren oder eine Übernahme anzustreben.
“Es ist Zeit, Nein zu sagen”, sagte Chegg-CEO Nathan Schultz gegenüber Forbes und betonte den gebrochenen “Gesellschaftsvertrag” zwischen Suchmaschinen und Publishern, der historisch gesehen Nutzer zu hochwertigen Inhalten geführt hat, anstatt sie innerhalb der Suchplattform selbst zu halten.
Die Scraping-Ökonomie
Die Beziehung zwischen KI-Unternehmen und Publishern ist zunehmend ausbeuterisch geworden. Selbst wenn Publisher KI-Unternehmen ausdrücklich den Zugriff auf ihre Seiten verwehren, scheinen einige Startups wie Perplexity weiterhin Inhalte mit nicht identifizierbaren Web-Crawlern zu scrapen. In einem dokumentierten Fall scrapte Perplexity die Website eines Publishers 500 Mal, sendete aber über 10.000 Weiterleitungen, was auf den Einsatz verdeckter Methoden zum Zugriff auf Inhalte hindeutet.
Dies ist nicht nur ein Ärgernis – es stellt eine erhebliche finanzielle Belastung dar. Während KI-Bots Websites besuchen, um Inhalte zu lesen und zu scrapen, treiben sie die Serverkosten für Publisher um Millionen Dollar in die Höhe. Mit dem Aufkommen von KI-Forschungsagenten, die selbstständig Hunderte von Websites besuchen können, um Berichte zu erstellen, wird sich dieses Problem voraussichtlich erheblich verschlimmern.
“KI liest nicht wie Menschen. Menschen klicken auf einen Link, dann auf einen zweiten und gehen weiter”, erklärte TollBit-CEO Toshit Panigrahi. “KI liest 10 bis 20 Links, um ihre Antwort zu bekommen.”
Rechtliche Auseinandersetzungen bahnen sich an
Die Spannung zwischen Content-Erstellern und KI-Unternehmen hat sich erwartungsgemäß auf die Gerichte ausgeweitet. Nachrichtenverlage haben rechtliche Schritte gegen OpenAI und Perplexity wegen angeblicher Verletzung geistigen Eigentums eingeleitet. Die New York Post und Dow Jones verklagten Perplexity im Oktober wegen Urheberrechtsverletzung und der Zuschreibung erfundener Fakten an Medienunternehmen. Kürzlich reichten Publisher wie Condé Nast, Vox und The Atlantic eine Klage gegen das KI-Unternehmen Cohere ein, weil es angeblich 4.000 urheberrechtlich geschützte Werke gescrapt hat, um seine Sprachmodelle zu trainieren.
Cheggs Klage gegen Google behauptet, dass die KI-generierten Zusammenfassungen der Suchmaschine Inhalte von ihrer Website ohne Quellenangabe enthielten und dadurch direkt ihren Umsatz schädigten. Ian Crosby, Partner der Anwaltskanzlei Susman Godfrey, die Chegg vertritt, warnte, dass solche Praktiken letztendlich den Suchmaschinenunternehmen selbst schaden werden und zu einem “KI-Schlamm” führen, wenn Content-Ersteller wie Chegg aus dem Geschäft gedrängt werden.
Googles Expansion in die KI-Suche
Trotz dieser Bedenken erweitert Google aggressiv seine KI-Fähigkeiten in der Suche. Das Unternehmen hat kürzlich Gemini 2.0 für KI-Überblicke in den USA eingeführt, das auf komplexe Anfragen in den Bereichen Programmierung, fortgeschrittene Mathematik und multimodale Suchen abzielt. Google rühmt sich, dass KI-Überblicke nun von mehr als einer Milliarde Menschen genutzt werden, und hat die Anmeldepflicht für den Zugriff auf diese Funktion aufgehoben.
Noch bedeutsamer ist, dass Google einen experimentellen “KI-Modus” für Power-User eingeführt hat, die KI-Antworten für mehr ihrer Suchanfragen wünschen. Dieser neue Modus, der eine angepasste Version von Gemini 2.0 verwendet, legt Wert auf fortgeschrittenes Denkvermögen und multimodale Fähigkeiten, um nuancierte, mehrteilige Fragen zu bearbeiten, die zuvor mehrere Suchen erfordert hätten.
Googles Produktmanager Robby Stein charakterisiert dies als Zusammenführung von “fortschrittlichen Modellfähigkeiten mit Googles erstklassigen Informationssystemen”, aber das zugrundeliegende Muster ist klar: Inhalte werden zunehmend innerhalb von Googles Ökosystem konsumiert und neu verpackt, anstatt Nutzer zu Originalquellen zu leiten.
Die Zukunft von Web-Inhalten
Gartners Prognose, dass das traditionelle Suchmaschinenvolumen bis 2026 aufgrund von KI-Chatbots und anderen virtuellen Agenten um 25% sinken wird, erscheint nun möglicherweise konservativ. Mit der zunehmenden Einbettung von KI-Technologien in Sucherfahrungen wird die grundlegende Ökonomie der Content-Erstellung im Web auf den Kopf gestellt.
Einige Publisher haben reagiert, indem sie Content-Lizenzverträge mit KI-Unternehmen abgeschlossen haben. Die Associated Press, Axel Springer und die Financial Times haben beispielsweise Vereinbarungen mit OpenAI getroffen. Gleichzeitig versuchen Unternehmen wie TollBit, neue Wirtschaftsmodelle zu etablieren, indem sie KI-Unternehmen für jedes Scraping von Inhalten eines Publishers zur Kasse bitten.
Aber diese Maßnahmen könnten nicht ausreichen, um das Ausmaß der Transformation zu bewältigen. Wie Googles Stein einräumt: “Wie bei jedem KI-Produkt im Frühstadium werden wir nicht immer alles richtig machen”, doch Nutzer könnten dennoch die Bequemlichkeit direkter Antworten der Quellüberprüfung vorziehen, selbst auf Kosten gelegentlicher Ungenauigkeiten.
Ein geschlossenes Ökosystem entsteht
Die Entwicklung wird zunehmend deutlich: KI-gestützte Suche drängt das Internet in Richtung eines geschlossenen Ökosystems, das von einer Handvoll Tech-Giganten kontrolliert wird. OpenAI hat bereits begonnen, eine “Teile-und-herrsche”-Strategie anzuwenden, indem es Content-Lizenzverträge mit großen Publishern abschließt, um seine Antwortmaschine innerhalb von ChatGPT zu betreiben.
Da diese KI-Systeme zunehmend den Zugang zu Web-Inhalten vermitteln, droht die Kontrolle über globale Medien und die Vielfalt der verfügbaren Perspektiven in den Händen einiger weniger US-amerikanischer Technologieunternehmen konzentriert zu werden. Das offene Web – einst gefeiert für die Demokratisierung des Informationszugangs und die Stärkung unabhängiger Publisher – steht vor einer existenziellen Herausforderung durch genau die Unternehmen, die einst seine Sache verfochten haben.
Die Frage ist nun, ob diese Transformation einen Fortschritt in Richtung effizienterer Informationsgewinnung darstellt oder eine grundlegende Umstrukturierung der Internetökonomie, die die Nachhaltigkeit unabhängiger Content-Erstellung bedroht. Für Publisher, Content-Ersteller und letztendlich Informationskonsumenten könnten die Einsätze nicht höher sein.