theNet von CLOUDFLARE

Das Bot-dominierte Internet

So erkennen Sie im automatisierten Web, wer hilft – und wer schadet


Das Internet wurde für die menschliche Interaktion entwickelt. Heute wird es durch Automatisierung definiert.

Ich habe diese Transformation in Echtzeit miterlebt. Der Bot-Traffic steigt sprunghaft an. Tatsächlich werden Sie überrascht sein, wie groß der Anteil von Bots im Internet ist: Mittlerweile machen Bots fast ein Drittel der gesamten Internetaktivität aus – und diese Zahl steigt.

Während Menschen online klicken, scrollen und tippen, führen Maschinen automatisierte Aufgaben aus. Der Großteil dieses automatisierten Datenverkehrs dient legitimen Zwecken: Such-Crawler, API-Integrationen, Überwachungssysteme, KI-Agenten. Ein beträchtlicher Teil davon ist jedoch schädlich, und die Grenze zwischen guter und schlechter Automatisierung verschwimmt zunehmend.

Diese Veränderung ist nicht per se gefährlich. Es ist unvermeidlich. Es ist die nächste Phase der Evolution des Internets. Dies führt jedoch zu neuen Herausforderungen, für deren Bewältigung die vorhandene IT-Infrastruktur und die Cybersicherheitssysteme nicht ausgelegt sind. IT-Führungskräfte stehen heute vor grundlegenden Fragen zu Vertrauen, Transparenz und Kontrolle, die traditionelle Architekturen nicht beantworten können. Die Organisationen, die diesen Wandel erkennen und ihre Infrastruktur entsprechend umgestalten, werden die Entwicklung des Internets prägen. Die anderen werden dauerhaft ins Hintertreffen geraten.


Nicht alle Bots sind bösartig (und das ist das Problem)

Das schnelle Wachstum von KI-Bots hat die Sorge vor potenziell schädlichen Aktivitäten verstärkt. Doch nicht jede automatisierte Bot-Aktivität ist schlecht – im Gegenteil, der Großteil ist harmlos. Suchcrawler indexieren Inhalte, Uptime-Monitore überwachen die Verfügbarkeit, API-Calls ermöglichen Integrationen, KI-Systeme verarbeiten Anfragen. Bots halten das heutige Internet am Laufen – genau das macht die Herausforderung so komplex.

Unternehmen stehen vor einer doppelten Herausforderung: Sie müssen zwischen Bots und Menschen unterscheiden und zusätzlich zwischen guten und schlechten Bots differenzieren. Das ist schwierig, da böswillige Akteure automatisierte Angriffe als legitimen Datenverkehr tarnen, und legitime Automatisierung sich in großem Maßstab oft unvorhersehbar verhält, was sie verdächtig erscheinen lässt, selbst wenn sie es nicht ist.

Herkömmliche IT- und Cybersicherheitsarchitekturen waren für dieses Maß an Mehrdeutigkeit nicht ausgelegt. Perimeterbasierte Sicherheitsmodelle führen beispielsweise zu Latenzzeit und schaffen Single Points of Failure. Multi-Cloud- und Hybridumgebungen fragmentieren Richtlinien und führen zu einer uneinheitlichen Durchsetzung.

Beide architektonischen Extreme – zentralisiert und dezentral – haben ihre Grenzen erreicht. Rein zentralisierte IT- und Sicherheitssysteme sind nicht in der Lage, schnell genug zu skalieren oder sich zu lokalisieren. Rein dezentrale Systeme schränken die Sichtbarkeit und Kontrolle ein, wodurch es nahezu unmöglich wird, einheitliche Sicherheitsrichtlinien durchzusetzen. Sie können sich nicht an die Geschwindigkeit und das Volumen des maschinengesteuerten Datenverkehrs anpassen. Sie können zwar sagen, wer sich verbindet, aber nicht, warum. Doch das Verständnis der Absicht ist entscheidend, um festzustellen, ob automatisierte Bots nützen oder schaden.

Dies ist der grundlegende Wandel: Die Herausforderung liegt nicht mehr in der Identifizierung, sondern in der Interpretation. Es ist an der Zeit, bei der Sicherheit von der Frage „Wer“ zur Frage „Warum“ überzugehen.


Vom Sicherheitsproblem zur architektonischen Herausforderung

Seit Jahrzehnten betrachten Unternehmen Bots als ein Problem der Erkennung und Blockierung – etwas, das sie an den Sicherheitsstack delegieren können. Da die Automatisierung im Web jedoch zur vorherrschenden Kraft wird, funktioniert diese reaktive Haltung nicht mehr. Die Herausforderung besteht jetzt nicht darin, Bots aufzuhalten. Es wird eine Infrastruktur aufgebaut, die Absichten erkennen und sich in Echtzeit anpassen kann.

Der Wandel vom reaktiven Umgang mit Bots hin zu einer Architektur, die von Anfang an für sie ausgelegt ist, verlangt von Unternehmen, „secure by design“ zu werden. Schutz muss direkt in die Architektur eingebettet sein – nicht erst nachträglich aufgesetzt.

Bot-Abwehr darf keine Funktion sein, sondern muss ein Designprinzip sein. Die einzig nachhaltige Antwort auf Automatisierung ist eine adaptive Architektur, die kontinuierlich lernt und sich weiterentwickelt. Die Frage ist nicht: „Wie bringe ich mein Sicherheitsteam dazu, das Problem zu beheben?“ Sondern: „Wie gestalte ich meine Architektur flexibel, agil und reaktionsfähig?“

Mehr Steuerelemente sind nicht die Lösung. Taktische Sicherheitslösungen sind in dem Moment überholt, in dem sie eingesetzt werden. Zusätzliche Abwehrmaßnahmen sind wirkungslos gegen Bedrohungen, die sich schneller entwickeln, als eine manuelle Reaktion erfolgen kann. Der einzige Weg nach vorn ist ein grundlegender Architekturwandel, bei dem Sicherheit nicht länger ein Randbereich ist, sondern tief ins Netzwerkgewebe eingewoben wird und bestimmt, wie Systeme funktionieren und sich weiterentwickeln.

Für IT- und Sicherheitsteams beginnt die Konzeption für Automatisierung mit drei zentralen Architekturprinzipien:

1. Vereinfachen und konsolidieren Sie mit einheitlichen Plattformen, um globale Transparenz und einheitliche Durchsetzung zu erzielen.

Wenn Richtlinien und Kontrollen in Dutzenden von Tools vorhanden sind, hat niemand den Gesamtüberblick. Die Konsolidierung auf einer einzigen, global verteilten Plattform ermöglicht es Teams, eine Richtlinie überall anzuwenden. Eine in einer Region aktualisierte Regel wird innerhalb von Sekunden, nicht erst nach Wochen, im gesamten Netzwerk übernommen.

2. Setzen Sie anpassbare, verhaltensbasierte Informationen statt statischer Regeln ein.

Von rotierenden IPs über Identitätsverschleierung bis hin zur Nachahmung des Benutzerverhaltens ändern Angreifer ständig ihre Taktiken. Adaptive Systeme analysieren Muster von Intention und Geschwindigkeit und unterscheiden legitime Automatisierung wie API-Aufrufe oder Such-Crawler von schädlichen Aktivitäten, selbst wenn beide anfänglich identisch erscheinen.

3. Betrachten Sie die Automatisierung als eine Möglichkeit zur Effizienzsteigerung, indem Sie eine gute Automatisierung zur Stärkung der Abwehr nutzen.

Automatisierung ist nicht der Feind – Fragmentierung schon. Wenn Unternehmen Netzwerk-Telemetrie, Bot-Signale und Applikationsverhalten automatisiert verknüpfen, können sie in Maschinen­geschwindigkeit erkennen und reagieren – und aus einer reaktiven Haltung eine proaktive machen.


Führend in einem posthumanen Internet

Automatisierung ist die neue Konstante unserer Welt. Für Technologieverantwortliche geht es nicht darum, sie aufzuhalten, sondern darum, die eigene Architektur um sie herum zu gestalten. Führung in dieser neuen Ära erfordert einen grundlegenden Wandel im Designdenken.

Sicherheit und Anpassungsfähigkeit dürfen nicht als Gegensätze gelten, sondern als ein einziges architektonisches Ziel. Die Zukunft des Internets braucht Systeme, die Intention erkennen, aus Verhalten lernen und sich in Maschinengeschwindigkeit anpassen.

Hier liegt der erforderliche Mentalitätswandel bei IT-Führungskräften.

Es geht nicht mehr darum, wer auf Ihre Systeme zugreift, sondern warum sie sich dort befinden. In einer Welt, in der Maschinen, APIs und KI-Agenten die Menschen bald zahlenmäßig übertreffen werden, wird die Absicht zum zuverlässigsten Signal für Vertrauen. Für das Design nach dem „Warum“ bedeutet dies, Systeme zu entwickeln, die den Zweck und das Verhalten – nicht nur Anmeldedaten – bewerten, um zu entscheiden, ob eine Interaktion erlaubt, eingeschränkt oder abgelehnt werden sollte. Statt zu fragen „Wer bist du?“, muss moderne Architektur fragen: „Was versuchst du zu tun?“ Dieser Wandel verlagert Sicherheit von statischer Identitätsprüfung hin zu kontinuierlicher Intentionsanalyse – im Einklang mit der Art, wie Automation im Internetmaßstab tatsächlich funktioniert.

In einem Maschine-zu-Maschine-Internet muss sich Zero Trust von einem Rahmen für den menschlichen Zugang zur Funktionsweise des gesamten digitalen Ökosystems weiterentwickeln – ein gemeinsamer Regelsatz, der festlegt, wie jede Entität, ob Mensch oder Maschine, Vertrauen aufbaut und bewahrt. Jede Verbindung oder jeder Datenaustausch muss kontinuierlich die Identität verifizieren, die Absicht bewerten und den Zugriff mit minimalen Berechtigungen erzwingen. In diesem Modell fungiert Zero Trust weniger als Sicherheitsrichtlinie, sondern vielmehr als Verhaltenscode des Internets, der definiert, wer oder was unter welchen Bedingungen und für wie lange interagieren kann.


Architektur für eine Bot-gesteuerte Zukunft

Wie sieht dieses Architekturmodell in der Praxis aus? Wir bei Cloudflare haben eine Plattform mit einer Infrastruktur geschaffen, die zentral gesteuert, global verteilt ist und lokale Intelligenz nutzt. Ein Netzwerk, eine Kontrollebene Jeder Dienst kann überall ausgeführt werden. Wenn wir ein Bot-Muster erkennen, können wir Bot-Management-Funktionen einsetzen, um sofort überall Abhilfemaßnahmen zu erzwingen – in mehr als 330 Städten mit 449 Tbps Kapazität. Machine Learning-Modelle, die mit Daten aus der ganzen Welt trainiert wurden, erkennen Anomalien in Echtzeit und in globalem Maßstab. Einheitliche Transparenz und Kontrolle über Sicherheits-, Netzwerk- und Datenebenen ermöglichen es Unternehmen, Bedrohungen ohne Fragmentierung oder Verzögerung zu erkennen und darauf zu reagieren.

Das Internet begann als ein Netzwerk von Menschen. Es entwickelt sich zu einem Netzwerk der Intention. Die Unternehmen, die nicht mehr auf die Automatisierung reagieren und beginnen, Architekturen für die Automatisierung zu entwickeln, werden prägen, wie sicher und intelligent sich diese weiterentwickelt.

Dieser Beitrag ist Teil einer Serie zu den neuesten Trends und Themen, die für Entscheidungsträger aus der Tech-Branche heute von Bedeutung sind.


Vertiefung des Themas:

Wenn Sie mehr darüber erfahren möchten, wie Sie Ihr Unternehmen im neuen Zeitalter der Intentionen schützen können, lesen Sie den Cloudflare-Cybersicherheitsbericht: Maßstabsgerechte Ausfallsicherheit. Dieser untersucht die kritischen Schwachstellen, an denen Cyber-Resilienz von Grund auf neu aufgebaut und nicht nachträglich hinzugefügt werden muss.

Autor

Nan Hao Maguire
Field CTO, Cloudflare



Wichtigste Eckpunkte

Folgende Informationen werden in diesem Artikel vermittelt:

  • Wie der Bot-Traffic zunimmt

  • Der Unterschied zwischen guten und schädlichen Bots

  • 3 Prinzipien für den Aufbau einer Architektur, die Bots einbezieht


Verwandte Ressourcen

Erhalten Sie eine monatliche Zusammenfassung der beliebtesten Internet-Insights!