Phishing und andere Social-Engineering-Angriffe gehören nach wie vor zu den größten Cyber-Bedrohungen für Unternehmen. Gleichzeitig setzen Angreifer:innen zunehmend auf generative KI (in Form von sogenannten Large Language Models, LLMs), um solche Angriffe durchzuführen. Diese Entwicklung führt dazu, dass Phishing-Mails heute deutlich schwerer zu erkennen sind als noch vor einigen Jahren. Früher verrieten sich Phishing-Versuche oft durch offensichtliche Fehler – gebrochenes Deutsch oder Englisch, untypische Formulierungen oder plumpe inhaltliche Auffälligkeiten.
Mit LLMs sind diese Warnsignale nahezu verschwunden. Mit generativer KI können Angreifer qualitativ hochwertige E-Mails verfassen, die authentisch und professionell wirken. Gleichzeitig sind im Darknet sogar spezialisierte KI-Modelle wie WormGPT oder FraudGPT verfügbar. Diese wurden explizit für kriminelle Zwecke trainiert und generieren täuschend echte Phishing-Nachrichten, ohne die üblichen Rechtschreibfehler oder holprige Sprache, an denen man Betrug früher erkennen konnte. Mit anderen Worten: Die klassischen Erkennungsmerkmale greifen immer seltener. Aber es geht nicht nur um korrekte Grammatik. Moderne KI kann Inhalte kontextbezogen und individuell anpassen. So ist es beispielsweise möglich, öffentlich verfügbare Informationen (z.B. aus LinkedIn, Firmenwebseiten oder Social Media) auszuwerten und in die Phishing-Mail einzubauen. Eine solche KI-generierter Nachricht könnte beispielsweise den echten Namen eines Vorgesetzten nennen, auf ein aktuelles Firmenereignis Bezug nehmen oder persönliche Interessen des Empfängers einbeziehen, um möglichst glaubwürdig zu wirken. Diese hochgradige Personalisierung erhöht die Erfolgsquote erheblich – selbst sicherheitsbewusste Mitarbeitende haben Schwierigkeiten, solche gefälschten Nachrichten von legitimen Mails zu unterscheiden.
Generative KI ermöglicht es zudem, in kürzester Zeit eine Vielzahl unterschiedlicher Phishing-Texte zu produzieren. Angreifer können so kostengünstig Phishing-Kampagnen im großen Stil durchführen, ohne befürchten zu müssen, dass sich Muster wiederholen und auffallen. Unternehmen sehen sich somit einer neuen Dimension der Bedrohung gegenüber, bei der herkömmliche Abwehrstrategien an ihre Grenzen stoßen. Angesichts dieser Entwicklung gewinnt die Sensibilisierung der Mitarbeiterinnen und Mitarbeiter weiter an Bedeutung. Schließlich sind geschulte und aufmerksame Mitarbeiter:innen die letzte Verteidigungslinie, wenn technische Filter versagen. Doch genau hier zeigt sich ein Problem: Herkömmliche Schulungsansätze reichen nicht mehr aus, um dem heutigen Tempo und der Raffinesse der Angriffe gerecht zu werden. Klassische Security-Awareness-Schulungen – etwa jährliche Seminare oder standardisierte E-Learning-Module – vermitteln oft nur theoretisches Wissen und erfüllen Compliance-Anforderungen, führen aber kaum zu einer nachhaltigen Verhaltensänderung. Die Ursache: „One-size-fits-all“-Trainings mit veralteten Inhalten, fehlender Praxisnähe und geringer Einbindung der Teilnehmenden.
Ohne kontinuierliche, interaktive Schulungen, die auf unterschiedliche Rollen und aktuelle Angriffsformen zugeschnitten sind, bleiben Mitarbeiter:innen oft unvorbereitet. Hier setzt das Forschungsprojekt Awareness 365 der Universität Wien an. Die Kernidee: Wenn Angreifer KI nutzen, um ihre Methoden zu verbessern, sollten wir die gleiche Technologie einsetzen, um unsere Abwehrmaßnahmen zu stärken. Konkret entsteht eine neuartige Awareness-Plattform, die generative KI für realitätsnahes Training nutzt. Dabei werden LLMs eingesetzt, um automatisch Phishing-Simulationen zu erzeugen, die von echten Angriffsmails praktisch nicht zu unterscheiden sind. Diese Simulationen können regelmäßig (im Idealfall ganzjährig, also „365 Tage im Jahr“) an die Mitarbeiterinnen und Mitarbeiter versendet werden – ohne großen Mehraufwand für die IT-Sicherheitsverantwortlichen. Automatisierung ist hier ein Schlüssel: Bisher mussten Sicherheitsabteilungen viel Zeit investieren, um immer wieder neue Phishing-Testmails von Hand zu erstellen. Das KI-System von Awareness 365 übernimmt diese Aufgabe und generiert auf Knopfdruck eine Vielzahl glaubwürdiger Szenarien. Dabei lassen sich die Inhalte flexibel an aktuelle Bedrohungstrends, wie etwa neue Betrugsmaschen oder saisonale Themen, anpassen und auf die jeweilige Zielgruppe zuschneiden. So können beispielsweise Mitarbeiterinnen und Mitarbeiter aus dem Finanzbereich andere simulierte Angriffe erhalten als solche aus der Personalabteilung, jeweils abgestimmt auf die für sie plausiblen Themen.
Forschungsergebnisse unterstützen diesen Ansatz: Individuell angepasste Trainingsinhalte sind deutlich effektiver, konnten bisher aber nur mit hohem Aufwand umgesetzt werden. Generative KI kann hier viele Schritte automatisieren und personalisierte Sicherheitstrainings skalierbar machen. Für die Mitarbeiterinnen und Mitarbeiter bedeutet dies eine deutlich praxisnähere Lernerfahrung. Statt abstrakter Warnungen oder veralteter Beispiele erleben sie in einem geschützten Rahmen, wie ein raffinierter Phishing-Angriff heute aussehen kann. Wenn eine simulierte KI-Phishing-Mail im Posteingang landet, müssen sie die gleiche Entscheidung treffen wie im Ernstfall. Durch diese wiederholte Übung in der Realitätsschleife prägt sich sicheres Verhalten viel stärker ein als durch bloße Theorie. Lernen wird zu einem kontinuierlichen Prozess und nicht zu einem jährlichen Pflichttermin. Die Mitarbeitenden bleiben über das Jahr hinweg für neue Maschen sensibilisiert und entwickeln ein Gespür für die subtilen Anzeichen von Social Engineering, auch wenn die Angriffe durch KI perfektioniert wurden. Langfristig führt dies zu einer messbaren Erhöhung der organisatorischen Resilienz gegenüber Cyberangriffen. Je mehr Übung die Mitarbeiter:innen haben, desto sicherer verhalten sie sich, unabhängig davon, ob die Phishing-Mail von einem Menschen oder einer KI stammt.
Traditionelle Schutzmechanismen wie Spam-Filter oder technische Lösungen bleiben wichtig, aber die jüngsten Entwicklungen machen deutlich, dass der „Faktor Mensch“ immer mehr in den Mittelpunkt rücken muss. Angreifer:innen rüsten mit KI auf – Unternehmen sollten es ihnen gleichtun. Eine moderne Awareness-Plattform wie Awareness 365 zeigt, wie KI als Verteidigungsinstrument dienen kann: Sie ermöglicht ein immersives, aktuelles Training der Mitarbeiter und Mitarbeiterinnen und macht sie so fit für die neuen, KI-gestützten Betrugsmaschen. Mit diesem Ansatz können Unternehmen eine proaktive Sicherheitskultur etablieren, in der ihre Mitarbeiter zu einer widerstandsfähigen Firewall werden, gegen Angriffe der nächsten Generation ebenso wie gegen die klassischen Bedrohungen von gestern.