Illustration eines Grabsteins mit der Gravur „R.I.P Internet“, das die Idee des Niedergangs des Internets oder die Theorie des „toten Internets“ symbolisiert.
Illustration eines Grabsteins mit der Gravur „R.I.P Internet“, das die Idee des Niedergangs des Internets oder die Theorie des „toten Internets“ symbolisiert.
Illustration eines Grabsteins mit der Gravur „R.I.P Internet“, das die Idee des Niedergangs des Internets oder die Theorie des „toten Internets“ symbolisiert.

Sam Altman: „Plattformen wirken unecht.“ Und das Bot-Internet beweist es

15.09.2025

Es gibt da diese obskure Idee, die als die Tote-Internet-Theorie bekannt ist: dass das meiste, was wir online sehen, nicht mehr von Menschen stammt. Dass Inhalte, Traffic und Interaktionen von Bots, KI-Agenten und Automatisierung dominiert werden. Es klang immer schon nach einer dystopischen Verschwörungstheorie. Vor ein paar Jahren hättest du darüber gelacht. Aber jetzt? Die Dinge ändern sich schnell.

Der CEO von OpenAI, Sam Altman, hat es kürzlich in deutliche Worte gefasst: „Plattformen wie X und Reddit wirken sehr künstlich.

Er fügte hinzu, dass es vor ein oder zwei Jahren nicht so war. So schnell passiert der Wandel.

Illustration of a connected network where glowing blue robot heads vastly outnumber the small yellow human icons, symbolizing an internet dominated by bots.

Geister in der Maschine

Bots sind still und leise zur versteckten Mehrheit des Webs geworden. Cloudflare Radar berichtet, dass rund 30 % des weltweiten Traffics bereits automatisiert sind — Crawler, Scraper, KI-Bots. Und in manchen Regionen hat der Bot-Traffic den menschlichen Traffic sogar übertroffen.

Also ist die Idee des „toten Internets“ doch nicht so abwegig. Was wir jeden Tag durchscrollen, wird genauso stark von Maschinen wie von Menschen geformt. Analytics, Werbeeinblendungen, Seitenzugriffe, sie alle wirken weniger zuverlässig, sobald du realisierst, dass so viel davon nicht von Menschen stammt.

Der Aufstieg von KI-Scrapern und Agenten

Wenn das Internet von gestern durch simple Bots verzerrt wurde, stehen wir heute bereits vor zwei neuen Schichten. Zuerst sind da die LLM-Scraper: Bots, die riesige Mengen an Online-Inhalten durchforsten, um umfangreiche Sprachmodelle zu füttern. Anders als traditionelle Crawler, indexieren sie nicht nur Seiten. Sie ziehen komplette Artikel, Posts, Bilder oder Code ein. Cloudflare hat auf eine wachsende „Crawl-to-Referral-Lücke“ hingewiesen, bei der Inhalte stark von diesen Bots konsumiert werden, aber fast kein menschlicher Traffic zurückgesendet wird.

Darüber hinaus sind KI-Agenten bereits angekommen. Sie sammeln nicht nur Informationen, sie agieren. Agenten können browsen, klicken, interagieren und sogar Inhalte posten, die überzeugend menschlich aussehen. Statt Modelle passiv im Hintergrund zu trainieren, formen sie aktiv die Online-Umgebung in Echtzeit. Für einen tieferen Einblick, wie sie die Marketingwelt umgestalten, schaue dir unseren Blogpost zu Marketing im KI-Zeitalter an.

Und der Wandel ist dramatisch. Vor nur ein oder zwei Jahren fühlten sich diese Probleme noch speziell an. Jetzt, wie Sam Altman sagte, wirken Plattformen wie Reddit und X „sehr künstlich“ — eine Veränderung, die quasi über Nacht geschehen ist.

Warum das wichtig ist

Wenn Bots und KI-Agenten dominieren, beginnen die Grundlagen des Webs zu wanken. Metriken, auf die Unternehmen angewiesen sind, von Engagement bis Konversionen, verlieren an Bedeutung. Publisher sehen, wie die Traffic-Zahlen steigen, aber mit weniger echten Menschen dahinter. Werbetreibende geben Geld für Eindrücke aus, die möglicherweise gar nicht menschlich sind. Und das alltägliche Interneterlebnis, einst auf authentischer Interaktion basierend, droht zu einer Simulation zu werden, in der es unmöglich ist zu sagen, mit wem oder was du interagierst.

Das Problem ist nicht, dass es Bots gibt, die gab es schon immer. Es ist das Ausmaß, die Geschwindigkeit und die Raffinesse des heutigen automatisierten Traffics, das neu ist. Und anders als bei früheren Generationen des Webs sprechen wir nicht mehr von Hintergrundrauschen. Bots und KI-Crawler sind jetzt eines der lautesten Signale online.

Was als Nächstes kommt

Das Web ist noch nicht „tot“, aber seine Identität steht unter Druck. Wenn der aktuelle Trend anhält, wird menschliche Aktivität zunehmend das Minderheitensignal in einer Flut von automatisiertem Rauschen sein. Cloudflare und andere experimentieren bereits mit Lösungen, von der standardmäßigen Blockierung von KI-Crawlern bis zur Erforschung von „Bezahlen pro Crawl“-Modellen, aber es ist klar, dass dieser Kampf gerade erst beginnt.

Für Unternehmen, Publisher und Werbetreibende ist die Lektion einfach: Gehe nicht davon aus, dass die Zahlen echt sind. KPIs zu schützen bedeutet, anzuerkennen, dass ein großer Teil des Internets nicht mehr von Menschen kommt und dass die Grenze zwischen organischem Wachstum und automatisierter Verzerrung schnell verschwindet.

Mit Tools wie fraud0 kannst du Klarheit darüber erhalten, welche Art von Traffic tatsächlich deine Seite erreicht, ob es sich um Menschen oder Bots handelt, und besser verstehen, wie Automatisierung deine Daten formt.

Schütze dein Marketing vor Bots und Invalid Traffic

Hol dir die Kontrolle über dein Marketing und deine Daten zurück und teste fraud0.

Cta Image

Schütze dein Marketing vor Bots und Invalid Traffic

Hol dir die Kontrolle über dein Marketing und deine Daten zurück und teste fraud0.

Cta Image

Schütze dein Marketing vor Bots und Invalid Traffic

Hol dir die Kontrolle über dein Marketing und deine Daten zurück und teste fraud0.

Cta Image