Informationssicherheit

Cyberangriffe werden mit KI deutlich präziser

 Dennis L.  nenoitarepooK etlhazeb tlähtnE

(Symbolbild). Eine unscheinbare Eingabe am Laptop löst im Hintergrund einen vollständigen Systemkompromiss aus. Das Bild steht für hochautomatisierte Cyberangriffe, bei denen KI-gestützte Werkzeuge Schwachstellen in Sekunden erkennen und ausnutzen, bevor klassische Schutzmechanismen reagieren können. )kcotS ebodAirtnoM(Foto: © 
Auf den Punkt gebracht
  • KI ermöglicht Phishing in perfektem Deutsch ohne Rechtschreibfehler
  • Sprachmodelle testen automatisch tausende Passwörter pro Minute
  • Realistische Deepfakes lassen Telefonbetrug wie echte Chefanrufe wirken

Cyberangriffe waren lange auf die Kreativität einzelner Täter und begrenzte Ressourcen angewiesen, doch Künstliche Intelligenz verändert diese Ausgangslage grundlegend. Sprachmodelle formulieren überzeugende Phishing E-Mails, generative Systeme erzeugen täuschend echte Stimmen und Gesichter, während andere Algorithmen Netzwerke nach verwundbaren Zielen durchsuchen. Erste Studien zeigen, dass KI-basierte Angriffe sich kaum von legitimer Kommunikation unterscheiden und klassische Filter an ihre Grenzen bringen. Gleichzeitig eröffnen dieselben Technologien neue Möglichkeiten, Anomalien zu erkennen und Risiken quantifizierbarer zu machen.

In der Praxis bedeutet diese Entwicklung, dass Cyberangriffe immer weniger wie seltene Ausnahmesituationen und immer mehr wie industriell skalierte Prozesse aussehen. Angreifer können mit denselben Werkzeugen, die in Unternehmen produktive Texte, Softwarecode oder Marketingentwürfe erzeugen, auch fingierte Rechnungen, glaubhafte Bewerbungen oder gefälschte Support-Nachrichten generieren. Strategische Analysen wie der Global Cybersecurity Outlook betonen, dass generative KI als „Multiplikator“ wirkt, der die Zahl der Täuschungsversuche erhöht und ihre sprachliche Qualität verbessert, ohne dass dafür zusätzliche menschliche Arbeitszeit notwendig ist. Für Verteidiger verschiebt sich dadurch der Fokus: Weg von einzelnen Warnmeldungen hin zu der Frage, welche Datenströme, Identitäten und Prozesse systematisch abgesichert werden müssen.

Besonders deutlich zeigt sich dieser Wandel bei Angriffen, die auf Soziale Manipulation zielen. Anstelle kurzer, holpriger Nachrichten, die viele Nutzer bislang schnell als verdächtig erkennen konnten, entstehen nun längere, kontextbezogene Dialoge, die an Tonfall, Fachbegriffe und typische Schreibweise der Zielperson angepasst werden. Eine aktuelle Studie in Electronics beschreibt ein Korpus von 865 KI-generierten Phishing-Mails, die grammatikalisch korrekt formuliert sind und sich untereinander stark unterscheiden, wodurch klassische Mustererkennung erheblich erschwert wird. Parallel dazu zeigen Übersichtsarbeiten zu generativer Künstlicher Intelligenz in Social-Engineering-Szenarien, dass Chatbots und Bildgeneratoren in mehreren Phasen eines Angriffs eingesetzt werden können - von der Informationssammlung über die Kontaktaufnahme bis zur fortlaufenden Gesprächsführung.

KI als Verstärker klassischer Angriffsphasen

Viele Cyberangriffe folgen einer wiederkehrenden Struktur: Zunächst verschaffen sich Angreifer einen Überblick über Ziele und Schwachstellen, dann entwickeln sie ein passendes Angriffsszenario, platzieren ihren Köder und versuchen schließlich, sich dauerhaft Zugang zu Systemen zu verschaffen. Künstliche Intelligenz greift in jede dieser Phasen ein. Suchalgorithmen und Crawler analysieren große Mengen öffentlich zugänglicher Daten, um Organigramme, E-Mail-Strukturen oder typische Kommunikationsmuster in Unternehmen zu rekonstruieren. Große Sprachmodelle übernehmen anschließend die Ausarbeitung individueller Nachrichten, die nicht nur in der richtigen Sprache und Höflichkeitsform, sondern auch im üblichen Tonfall eines Unternehmens formuliert sind. Dadurch sinken die Kosten pro Angriff, während die Erfolgswahrscheinlichkeit steigt.

Hinzu kommt, dass moderne Sprachmodelle nicht nur formulieren, sondern auch erklären und optimieren. Angreifer können sie nutzen, um Fehlermeldungen besser zu verstehen, Codefragmente für Schadsoftware zu überarbeiten oder Skripte zu erzeugen, die gezielt auf bestimmte Betriebssysteme zugeschnitten sind. Fachliteratur zur „weaponized AI“ beschreibt, wie maschinelles Lernen eingesetzt wird, um Erkennungssysteme zu umgehen, Angriffswege automatisch auszuwählen oder Schadcode zu verschleiern. Gleichzeitig zeigen neuere Arbeiten, dass dieselben Modelle auch zur Verteidigung dienen können, etwa indem sie Protokolldaten interpretieren oder verdächtige Konfigurationsänderungen markieren. Damit entsteht ein dynamisches Gleichgewicht: Fortschritte auf Seiten der Angreifer erzwingen kontinuierliche Anpassungen auf Seiten der Verteidiger, und umgekehrt.

Phishing E-Mails und Deepfake-Betrug in der Praxis

Im Alltag vieler Unternehmen sind Phishing E-Mails nach wie vor der wichtigste Einstiegspunkt für Cyberangriffe. Studien zu KI-generierten Phishing-Kampagnen zeigen, dass automatisch erzeugte E-Mails in standardisierten Tests ähnlich vertrauenswürdig wirken wie von Menschen verfasste Texte und sich trotzdem in großer Stückzahl personalisieren lassen. Gleichzeitig weisen Branchenanalysen darauf hin, dass die volkswirtschaftlichen Schäden erheblich sind: Schätzungen beziffern den jährlichen Verlust der deutschen Wirtschaft durch Cyberkriminalität auf über 200 Milliarden Euro, wobei ein großer Teil auf Fälle von Betrug, Datendiebstahl und Ransomware entfällt. Eine Auswertung zu gezielten Cyberattacken auf die deutsche Wirtschaft zeigt zudem, dass organisierte Gruppen und staatlich unterstützte Akteure einen wachsenden Anteil dieser Vorfälle ausmachen.

Neben E-Mail geraten vermehrt auch Stimme und Video in den Fokus. Deepfake-Betrug nutzt generative Modelle, um Stimmen von Führungskräften oder Partnern zu imitieren und kurzfristige Überweisungen oder die Preisgabe sensibler Daten zu erzwingen. Erste dokumentierte Fälle beschreiben Telefonate, bei denen die gefälschte Stimme eines Vorgesetzten ausreichend war, um hohe Geldbeträge freizugeben, obwohl keine E-Mail vorlag. Die Grenze zwischen digitaler und analoger Soziale Manipulation verschwimmt: Ein Videoanruf, der vertraute Gesichter zeigt, muss nicht mehr authentisch sein; eine Konferenzschaltung kann Echtzeit-Deepfakes enthalten, die auf kurze Reaktionszeiten und Stresssituationen ausgelegt sind. Damit gewinnt die Qualität der Sensibilisierung von Mitarbeitern weiter an Bedeutung, denn technische Filter allein können solche Situationen kaum vollständig abfangen.

  • KI-gestützte Erstellung personalisierter Phishing-Kampagnen mit variierenden Betreffzeilen und Inhalten
  • Deepfake-Betrug per Telefon oder Videokonferenz, der auf vertraute Stimmen und Gesichter setzt
  • Automatisierte Übersetzung und Lokalisierung von Angriffstexten in viele Sprachen in Sekundenbruchteilen
  • Werkzeuge, die gestohlene Zugangsdaten in großem Maßstab gegen Online-Dienste testen
  • Chatbots, die in Echtzeit auf Rückfragen von Opfern reagieren und so Vertrauen aufbauen

Diese Beispiele zeigen, dass Soziale Manipulation nicht mehr nur aus einzelnen Nachrichten besteht, sondern zunehmend aus dialogischen Szenarien, in denen Chatbots dynamisch auf Einwände, Rückfragen oder Verzögerungen reagieren. Gleichzeitig verschiebt sich der Ort des Angriffs: Neben klassischen Firmen-E-Mail-Adressen rücken private Messenger, Kollaborationsplattformen und soziale Netzwerke stärker in den Fokus. Analysen zur IT-Sicherheit im Homeoffice zeigen, dass verteilte Arbeitsumgebungen Angriffsflächen zusätzlich vergrößern, weil dienstliche und private Geräte sowie Kommunikationskanäle enger miteinander verflochten sind.

Verteidigung mit ISO 27001 und systematischer Risikobewertung

Angesichts dieser Entwicklungen reicht es nicht aus, einzelne technische Maßnahmen zu ergänzen; gefragt ist ein systematischer Ansatz, der Informationssicherheit als Teil des gesamten Managementsystems versteht. Ein etabliertes Rahmenwerk ist die Norm ISO 27001, die Anforderungen an ein Informationssicherheits-Managementsystem definiert und explizit auf einem risikobasierten Ansatz aufbaut. In diesem Kontext werden Bedrohungen wie Cyberangriffe nicht nur als abstrakte Möglichkeit behandelt, sondern in Form konkreter Szenarien beschrieben, deren Eintrittswahrscheinlichkeit und Auswirkungen quantifiziert werden können. Für KI-unterstützte Angriffe bedeutet das, dass sowohl die technische Seite – etwa automatisierte Phishing-Kampagnen oder KI-generierte Malware – als auch organisatorische Faktoren wie Schulungen, Freigabeprozesse und Meldewege gemeinsam betrachtet werden.

Die praktische Umsetzung hängt dabei stark von der Qualität der Risikoanalyse ab. Im Rahmen einer strukturierten ISO 27001 Risikobewertung lassen sich neue Bedrohungen dadurch abbilden, dass Angriffsszenarien explizit um KI-Komponenten erweitert werden, etwa um Deepfake-Betrug in Zahlungsfreigaben oder automatisierte Kompromittierung von Cloud-Zugängen. Entscheidend ist, dass Risiken nicht nur qualitativ beschrieben, sondern auch mit messbaren Kennzahlen wie erwarteten Ausfallzeiten, potenziellen Lösegeldforderungen oder Reputationsschäden hinterlegt werden. Auf dieser Basis können Unternehmen Prioritäten setzen: Welche Systeme benötigen mehrstufige Authentifizierung, wo sind zusätzliche Prüfmechanismen für Zahlungsanweisungen sinnvoll, und an welcher Stelle lohnt sich der Einsatz KI-gestützter Abwehrsysteme besonders?

Darüber hinaus gewinnt die laufende Sicherheitsbewertung an Bedeutung. Statt Sicherheitskonzepte nur in mehrjährigen Abständen zu aktualisieren, zeichnen neuere Untersuchungen zu großen Sprachmodellen in der Cybersicherheit das Bild eines fortlaufenden Wettrüstens, in dem neue Angriffsmethoden und Verteidigungstechniken einander schnell ablösen. Unternehmen, die ihre Prozesse an der Norm ausrichten, können hier ansetzen, indem sie Kennzahlen zu Vorfällen, abgewehrten Angriffen und erkannten Schwachstellen regelmäßig auswerten und in die Planung der nächsten Maßnahmen einfließen lassen. Interne Audits und Testszenarien, bei denen KI-gestützte Angriffe simuliert werden, ermöglichen es, Kontrollmechanismen unter realistischen Bedingungen zu überprüfen. Ergänzend dazu liefern technische Analysen von Betriebssystemen und Endpoint-Schutz, wie sie etwa in Untersuchungen zu sichereren Windows-Versionen beschrieben werden, Hinweise darauf, welche Konfigurationsänderungen den größten Sicherheitsgewinn bringen.

Offene Fragen und Grenzen aktueller Abwehr

Trotz zahlreicher technischer Fortschritte bleibt offen, wie sich der gesellschaftliche und rechtliche Umgang mit KI-gestützten Cyberangriffen entwickeln wird. Viele Detektionsverfahren setzen auf Mustererkennung in Texten, Bildern oder Netzwerkprotokollen, doch generative Modelle verbessern sich kontinuierlich und können sich gezielt an bekannte Filter anpassen. Forschungsarbeiten zeigen, dass Sprachmodelle nicht nur nützliche Antworten geben, sondern auch gezielt zu unerwünschten Ausgaben verleitet werden können, wenn sie mit speziell konstruierten Eingaben konfrontiert werden. Gleichzeitig experimentieren Sicherheitsteams damit, dieselben Modelle für die Analyse von Protokolldaten, die Priorisierung von Warnmeldungen oder die automatische Zusammenfassung komplexer Vorfälle zu nutzen, was die Arbeitsbelastung reduziert, aber neue Abhängigkeiten schafft.

Ein weiterer Unsicherheitsfaktor ist die Verfügbarkeit von Werkzeugen. Während einige Plattformen das Generieren von Schadcode oder Phishing-Inhalten explizit verbieten, existieren andere Dienste, die entsprechende Sperren weniger strikt umsetzen. Die bereits erwähnte Studie zu AI-basierten Phishing-Angriffen zeigt, dass ein einzelner Dienst genutzt wurde, um hunderte unterschiedlicher E-Mails automatisch zu erzeugen, die in vielen Punkten realen Geschäfts-E-Mails ähneln. Parallel dazu skizzieren aktuelle Übersichtsarbeiten ein breites Spektrum potenzieller Anwendungen großer Sprachmodelle – von der Unterstützung bei der Schwachstellenanalyse bis hin zur automatisierten Generierung von Exploits. Damit wird deutlich, dass die Grenze zwischen legitimer Forschung, produktiver Nutzung und Missbrauch oft nur in den Rahmenbedingungen der jeweiligen Organisation und in deren Bereitschaft zur kontinuierlichen Anpassung der Schutzmechanismen liegt.

Artificial Intelligence Review, Digital deception: generative artificial intelligence in social engineering and phishing; doi:10.1007/s10462-024-10973-2
AI, Large Language Models in Cybersecurity: A Survey of Applications, Vulnerabilities, and Defense Techniques; doi:10.3390/ai6090216

Spannend & Interessant
VGWortpixel