Sam Altman: „Plattformen wirken unecht.“ Und das Bot-Internet beweist es

Bild von Oliver Kampmeier
Oliver Kampmeier

Cybersecurity Content Specialist

Illustration of a gravestone with “R.I.P Internet” engraved, symbolizing the idea of the internet’s decline or the “dead internet” theory.

Es gibt eine Theorie, die Dead Internet Theory genannt wird: Sie besagt, dass das, was wir online sehen, größtenteils nicht mehr von Menschen stammt. Inhalte, Traffic und Interaktionen werden von Bots, KI-Agenten und Automatisierung dominiert. Lange klang das wie eine dystopische Verschwörungstheorie. Noch vor ein paar Jahren hätten Sie vielleicht darüber gelacht. Doch heute? Die Dinge ändern sich rasant.

OpenAI-CEO Sam Altman brachte es kürzlich unverblümt auf den Punkt: „Plattformen wie X und Reddit wirken sehr unecht.“

Er fügte hinzu, dass es vor ein oder zwei Jahren noch nicht so war. Das zeigt, wie schnell sich die Lage verändert.

Illustration of a connected network where glowing blue robot heads vastly outnumber the small yellow human icons, symbolizing an internet dominated by bots.

Geister in der Maschine

Bots sind still und leise zur versteckten Mehrheit des Webs geworden. Cloudflare Radar berichtet, dass rund 30 % des weltweiten Traffics bereits automatisiert sind durch Crawler, Scraper, KI-Bots. Und in manchen Regionen hat die Bot-Aktivität den menschlichen Traffic sogar überholt.

Die „Dead Internet“-Idee ist also gar nicht so abwegig. Das, was wir täglich durchscrollen, wird inzwischen ebenso sehr von Maschinen geprägt wie von Menschen. Analytics, Ad Impressions, Page Views, all diese Zahlen wirken deutlich weniger verlässlich, wenn man bedenkt, dass so viel davon nicht von echten Nutzern stammt.

Der Aufstieg von KI-Scrapern und Agenten

Wenn das Internet gestern noch von einfachen Bots verzerrt wurde, sehen wir uns heute bereits mit zwei neuen Arten konfrontiert. Zuerst sind da die LLM-Scraper: Bots, die riesige Mengen an Online-Inhalten durchsuchen, um große Sprachmodelle zu trainieren. Anders als klassische Crawler indexieren sie nicht nur Seiten, sondern saugen vollständige Artikel, Posts, Bilder oder Code auf. Cloudflare verweist auf eine wachsende „Crawl-to-Referral Gap“: Inhalte werden massiv konsumiert, doch es kommt fast kein menschlicher Traffic zurück.

Darüber hinaus sind KI-Agenten längst Realität. Sie sammeln nicht nur Informationen, sie handeln auch. Agenten können browsen, klicken, interagieren und sogar Inhalte posten, die überzeugend menschlich wirken. Anstatt Modelle passiv im Hintergrund zu trainieren, gestalten sie die Online-Umgebung in Echtzeit aktiv mit. Für einen tieferen Einblick, wie sie die Marketingwelt verändern, empfehlen wir unseren Blogbeitrag zu Marketing im KI-Zeitalter.

Und das Tempo dieser Entwicklung ist dramatisch. Noch vor ein oder zwei Jahren wirkten diese Probleme randständig. Heute, wie Sam Altman bemerkte, fühlen sich Plattformen wie Reddit und X „sehr unecht“ an. Eine Verschiebung, die quasi über Nacht stattgefunden hat.

Warum das wichtig ist

Wenn Bots und KI-Agenten dominieren, geraten die Grundlagen des Webs ins Wanken. Kennzahlen, auf die Unternehmen angewiesen sind, von Engagement bis Conversions, verlieren ihre Aussagekraft. Publisher sehen steigende Traffic-Zahlen, aber dahinter stehen immer weniger echte Menschen. Werbetreibende geben Geld für Impressions aus, die womöglich gar nicht menschlich sind. Und die alltägliche Erfahrung des Internets, die einst auf authentischer Interaktion beruhte, droht zu einer Simulation zu werden, in der man nicht mehr erkennen kann, mit wem oder was man sich austauscht.

Das Problem ist nicht, dass es Bots gibt. Die hat es schon immer gegeben. Neu ist das Ausmaß, die Geschwindigkeit und die Raffinesse des heutigen automatisierten Traffics. Und anders als in früheren Epochen des Webs sprechen wir nicht mehr von Hintergrundrauschen. Bots und KI-Crawler gehören inzwischen zu den lautesten Signalen online.

Wie es weitergeht

Das Web ist noch nicht „tot“, aber seine Identität steht unter Druck. Wenn sich die aktuellen Trends fortsetzen, wird menschliche Aktivität zunehmend nur noch das schwächere Signal in einer Flut automatisierter Geräusche sein. Cloudflare und andere experimentieren bereits mit Lösungen, von standardmäßig blockierten KI-Crawlern bis hin zu „Pay per Crawl“-Modellen. Doch klar ist: Dieser Kampf hat gerade erst begonnen.

Für Unternehmen, Publisher und Werbetreibende lautet die Lehre einfach: Gehen Sie nicht davon aus, dass die Zahlen echt sind. Wer seine KPIs schützen will, muss anerkennen, dass ein erheblicher Teil des Internets nicht mehr von Menschen stammt und dass die Grenze zwischen organischem Wachstum und automatisierter Verzerrung schnell verschwimmt.

Mit Tools wie fraud0 lässt sich erkennen, welche Art von Traffic tatsächlich auf Ihrer Website landet, ob es sich um Menschen oder Bots handelt. So verstehen Sie besser, wie Automatisierung Ihre Daten beeinflusst.

Contents
Latest Whitepaper
Unmasking the Shadows 2025 Report Cover
Unmasking the shadows 2025

Sieh, was sonst verborgen bleibt: von der Qualität des Website-Traffics bis zur Realität von Ad-Platzierungen. Insights aus Milliarden von Datenpunkten unserer Kunden im Jahr 2024.

Subscribe to our newsletter
Share this article
Share this article
Author
Related Articles
Wie viel Werbe­budget verschwenden Sie an Fake Traffic?
1%, 4%, 36%?
Testen Sie fraud0 7 Tage lang kostenlos und finden Sie es heraus. Keine Kreditkarte erforderlich.
4,9 von 5 Sternen
Möchten Sie eine Tour von fraud0?
Try fraud0 for 7 days
No credit card required.

Already have an account? Log in

7 Tage lang kostenlos testen
Keine Kreditkarte erforderlich.

Sie haben bereits einen Account? Log in