- Blog
Sam Altman: „Plattformen wirken unecht.“ Und das Bot-Internet beweist es

Cybersecurity Content Specialist

Es gibt eine Theorie, die Dead Internet Theory genannt wird: Sie besagt, dass das, was wir online sehen, größtenteils nicht mehr von Menschen stammt. Inhalte, Traffic und Interaktionen werden von Bots, KI-Agenten und Automatisierung dominiert. Lange klang das wie eine dystopische Verschwörungstheorie. Noch vor ein paar Jahren hätten Sie vielleicht darüber gelacht. Doch heute? Die Dinge ändern sich rasant.
OpenAI-CEO Sam Altman brachte es kürzlich unverblümt auf den Punkt: „Plattformen wie X und Reddit wirken sehr unecht.“
Er fügte hinzu, dass es vor ein oder zwei Jahren noch nicht so war. Das zeigt, wie schnell sich die Lage verändert.

Geister in der Maschine
Bots sind still und leise zur versteckten Mehrheit des Webs geworden. Cloudflare Radar berichtet, dass rund 30 % des weltweiten Traffics bereits automatisiert sind durch Crawler, Scraper, KI-Bots. Und in manchen Regionen hat die Bot-Aktivität den menschlichen Traffic sogar überholt.
Die „Dead Internet“-Idee ist also gar nicht so abwegig. Das, was wir täglich durchscrollen, wird inzwischen ebenso sehr von Maschinen geprägt wie von Menschen. Analytics, Ad Impressions, Page Views, all diese Zahlen wirken deutlich weniger verlässlich, wenn man bedenkt, dass so viel davon nicht von echten Nutzern stammt.
Der Aufstieg von KI-Scrapern und Agenten
Wenn das Internet gestern noch von einfachen Bots verzerrt wurde, sehen wir uns heute bereits mit zwei neuen Arten konfrontiert. Zuerst sind da die LLM-Scraper: Bots, die riesige Mengen an Online-Inhalten durchsuchen, um große Sprachmodelle zu trainieren. Anders als klassische Crawler indexieren sie nicht nur Seiten, sondern saugen vollständige Artikel, Posts, Bilder oder Code auf. Cloudflare verweist auf eine wachsende „Crawl-to-Referral Gap“: Inhalte werden massiv konsumiert, doch es kommt fast kein menschlicher Traffic zurück.
Darüber hinaus sind KI-Agenten längst Realität. Sie sammeln nicht nur Informationen, sie handeln auch. Agenten können browsen, klicken, interagieren und sogar Inhalte posten, die überzeugend menschlich wirken. Anstatt Modelle passiv im Hintergrund zu trainieren, gestalten sie die Online-Umgebung in Echtzeit aktiv mit. Für einen tieferen Einblick, wie sie die Marketingwelt verändern, empfehlen wir unseren Blogbeitrag zu Marketing im KI-Zeitalter.

Und das Tempo dieser Entwicklung ist dramatisch. Noch vor ein oder zwei Jahren wirkten diese Probleme randständig. Heute, wie Sam Altman bemerkte, fühlen sich Plattformen wie Reddit und X „sehr unecht“ an. Eine Verschiebung, die quasi über Nacht stattgefunden hat.
Warum das wichtig ist
Wenn Bots und KI-Agenten dominieren, geraten die Grundlagen des Webs ins Wanken. Kennzahlen, auf die Unternehmen angewiesen sind, von Engagement bis Conversions, verlieren ihre Aussagekraft. Publisher sehen steigende Traffic-Zahlen, aber dahinter stehen immer weniger echte Menschen. Werbetreibende geben Geld für Impressions aus, die womöglich gar nicht menschlich sind. Und die alltägliche Erfahrung des Internets, die einst auf authentischer Interaktion beruhte, droht zu einer Simulation zu werden, in der man nicht mehr erkennen kann, mit wem oder was man sich austauscht.
Das Problem ist nicht, dass es Bots gibt. Die hat es schon immer gegeben. Neu ist das Ausmaß, die Geschwindigkeit und die Raffinesse des heutigen automatisierten Traffics. Und anders als in früheren Epochen des Webs sprechen wir nicht mehr von Hintergrundrauschen. Bots und KI-Crawler gehören inzwischen zu den lautesten Signalen online.
Wie es weitergeht
Das Web ist noch nicht „tot“, aber seine Identität steht unter Druck. Wenn sich die aktuellen Trends fortsetzen, wird menschliche Aktivität zunehmend nur noch das schwächere Signal in einer Flut automatisierter Geräusche sein. Cloudflare und andere experimentieren bereits mit Lösungen, von standardmäßig blockierten KI-Crawlern bis hin zu „Pay per Crawl“-Modellen. Doch klar ist: Dieser Kampf hat gerade erst begonnen.
Für Unternehmen, Publisher und Werbetreibende lautet die Lehre einfach: Gehen Sie nicht davon aus, dass die Zahlen echt sind. Wer seine KPIs schützen will, muss anerkennen, dass ein erheblicher Teil des Internets nicht mehr von Menschen stammt und dass die Grenze zwischen organischem Wachstum und automatisierter Verzerrung schnell verschwimmt.
Mit Tools wie fraud0 lässt sich erkennen, welche Art von Traffic tatsächlich auf Ihrer Website landet, ob es sich um Menschen oder Bots handelt. So verstehen Sie besser, wie Automatisierung Ihre Daten beeinflusst.

Sieh, was sonst verborgen bleibt: von der Qualität des Website-Traffics bis zur Realität von Ad-Platzierungen. Insights aus Milliarden von Datenpunkten unserer Kunden im Jahr 2024.
- Published: September 15, 2025
- Updated: September 15, 2025
1%, 4%, 36%?

