Künstliche Intelligenz (Artificial Intelligence, AI) gestaltet die Zukunft so verschiedener Branchen wie Gesundheitswesen, Finanzwesen und Logistik entscheidend mit. Doch nirgendwo sonst offenbaren sich das transformative Potenzial und die potenziellen Risiken so deutlich wie in der Cybersicherheit, wo AI im stillen, aber unerbittlichen Kampf gegen Cyberkriminelle als Schild und Schwert eingesetzt wird.
Da immer mehr Organisationen AI in ihre Cybersicherheitsstrategien integrieren, sollten wir uns eine kritische Frage stellen: Sind wir wirklich in der Lage, ihr Potenzial effektiv und sicher auszuschöpfen, oder schaffen wir durch den Einsatz von AI so viele neue Sicherheitslücken, wie wir schließen?
Ein neues Arsenal für Sicherheitsteams
AI-Funktionen arbeiten mit atemberaubender Schnelligkeit und Präzision. Die bereits für ihre menschenähnlichen Fähigkeiten zur Textverfassung gelobte Generative AI (GenAI) wird nun genutzt, um enorme Datenmengen blitzschnell auf verdächtiges Verhalten zu analysieren, und spielt damit eine kritische Rolle bei der Bedrohungserkennung.1 Die hervorragende Mustererkennung der Predictive AI unterstützt die frühe Aufdeckung potenzieller Sicherheitslücken, während Causal AI das Zusammenspiel verschiedener Faktoren auf Anzeichen sich anbahnender Bedrohungen untersucht.
Palo Alto Networks hat Precision AI entwickelt, ein ausgefeiltes proprietäres System, das gleich mehrere Arten von GenAI mit maschinellem Lernen und Deep Learning kombiniert, um Laufzeitangriffe in Echtzeit zu erkennen und blockieren und aus Hackertaktiken zu lernen. Die Lösung verspricht nicht nur, Organisationen vor Angriffen zu schützen, sondern auch, diesen mit den nötigen Sicherheitsmaßnahmen zuvorzukommen. Das ist besonders in der heutigen Bedrohungslandschaft wichtig, in der Angriffe immer schnelllebiger und vielseitiger werden.
Für CISOs und Cybersicherheitsteams sind solche Tools eine wahre Rettung in der Not, denn AI ermöglicht es ihnen, den Abdeckungsbereich ihrer Sicherheitsmaßnahmen zu erweitern, Routineaufgaben zu automatisieren und sich auf die gefährlichsten Bedrohungen zu konzentrieren. Sie vervielfachen die Effektivität überstrapazierter Teams, wirken Risiken wie Alarmmüdigkeit entgegen und lassen sich nahtlos in diverse Cybersicherheitsplattformen integrieren.
Doch nicht nur bei SecOps-Teams ist AI beliebt; auch Hacker machen sie sich zunutze. Sie haben – oft zu erschreckend niedrigeren Preisen – Zugang zu vielen AI-gestützten Technologien, die auch bei der Bedrohungsabwehr zum Einsatz kommen.
AI spielt Angreifern in die Hände
Im Dark Web steht Hackern nun dank der allgemeinen Verfügbarkeit von AI-Tools ein ganz neues Arsenal zur Verfügung. Cyberkriminelle nutzen inzwischen routinemäßig AI, um Abwehrmaßnahmen abzuklopfen, Sicherheitslücken auszunutzen und Sicherheitsinfrastrukturen mit ausgefeilten Exploits zu infiltrieren, die oft wochenlang unentdeckt bleiben. Tools, die einst nur Innovatoren und gut finanzierten, im Staatsauftrag agierenden Angreifergruppen zur Verfügung standen, werden nun von Amateuren genutzt, die mithilfe von GenAI überzeugende Phishingkampagnen oder Deepfakes von Führungskräften erstellen.
Die diesbezüglichen Zahlen sind erschreckend. Gartner zufolge waren AI-gestützte Angriffe 2024 drei Quartale hintereinander das größte neue Cyberrisiko.2 Gleichzeitig befürchten 57 % der Cybersicherheitsexperten, dass Hacker ihnen durch den Einsatz von AI bereits einen entscheidenden Schritt voraus sind.3
Sie müssen sich der unbequemen Wahrheit stellen, dass dieselbe Technologie, die ihre Cyberabwehr stärkt, auch Angriffe beschleunigt. In diesem Rennen geht es nicht mehr darum, wer die bessere Firewall entwickeln kann, sondern darum, wer – wie bei einem digitalen Schachspiel mit stetig steigendem Einsatz – weiter vorausdenken und seinen Gegner ausmanövrieren kann.
Strategische Konsequenzen für Organisationen
Eines ist klar: AI-basierte Tools und -Lösungen sollten nicht länger in Isolation genutzt, sondern fest in die Cybersicherheitsstrategie integriert werden. Außerdem ist ein Umdenken erforderlich, bei dem Organisationen von einem reaktiven auf einen proaktiven Sicherheitsansatz umsteigen.
Dieses Umdenken muss gleich in mehreren Bereichen stattfinden:
- Gezielte Investitionen statt Kaufrausch
Es geht nicht darum, mehr Geld für mehr AI-gestützte Tools auszugeben, sondern darum, Geld besser zu investieren. Investieren Sie in Dinge wie Zero-Trust-Modelle, die Angriffstaktiken direkt entgegenwirken, in die Härtung Ihrer Infrastruktur und in die Stärkung Ihrer Sicherheit, zum Beispiel durch Cloud-Delivered Security Services. - Integration statt Isolierung
AI erreicht erst dann ihr volles Potenzial, wenn sie in Cybersicherheitsplattformen zur Vereinfachung und Vereinheitlichung der Bedrohungsabwehr integriert wird. Je komplexer die Cybersicherheit wird, desto wichtiger wird ein plattformbasierter Ansatz für die Reduzierung von Risiken, die Effizienzsteigerung und Stärkung des Sicherheitsniveaus. - Operationalisierung von AI für Echtzeitresilienz
Die Zeit für Worte ist vorbei; nun müssen Führungskräfte dafür sorgen, dass AI flächendeckend in sämtliche Cybersicherheitsabläufe integriert wird, unter anderem um die Bedrohungserkennung, -abwehr und -eindämmung zu automatisieren und AI-generierte Einblicke in den Dienst der Geschäftskontinuität zu stellen.
Der Schlüssel zum Erfolg?
Die Zukunft gehört denjenigen, die AI nicht nur nutzen, sondern in jeden Bereich ihrer Cybersicherheitsstrategie integrieren. Das kann nicht schnell genug geschehen, denn wir leben in einer Welt, in der sich Angreifer und ihre Taktiken genauso schnell weiterentwickeln wie technologische Innovationen.
Der wichtigste Vorteil von AI ist ihre Fähigkeit, Sicherheitslücken aufzudecken und zielgerichtet zu beheben, bevor sie ausgenutzt werden können. Wichtig ist auch, zu bedenken, dass Cyberkriminelle AI ebenso geschickt nutzen wie Sicherheitsteams. Der Schlüssel zum Erfolg in diesem Rennen ist also, AI nicht nur als Tool zu sehen, sondern als roten Faden, der sich durch sämtliche Sicherheitsplattformen, Geschäftspraktiken und Prioritäten zieht und einen einheitlichen Ansatz unterstützt.
Dies erfordert nicht nur gezielte Investitionen, sondern vor allem eine Neuausrichtung der Cybersicherheit und eine kühne, provokative Vision. Vorstände und Führungskräfte müssen zu Verfechtern von AI als Grundstein ihrer Cybersicherheitsstrategien werden und dafür sorgen, dass sie nahtlos in die Struktur der Organisation eingewoben wird. Denn es geht um mehr als nur die Eindämmung von Cyberrisiken; es geht darum, durch Flexibilität und Anpassungsfähigkeit stets ein As im Ärmel zu haben.
Wenn Sie an weiteren Beiträgen von Anand Oswal interessiert sind, lesen Sie seine anderen Artikel hier.
Fußnoten
- „Generative AI in Cybersecurity: An Optimistic but Uncertain Future“, Enterprise Strategy Group, April 2024.
- „Gartner Survey Shows AI-Enhanced Malicious Attacks as Top Emerging Risk for Enterprises for Third Consecutive Quarter“, Gartner, November 2024.
- „The Life and Times of Cybersecurity Professionals, Volume VII“, Enterprise Strategy Group, November 2024.