Die jüngsten Meilensteine bei der Weiterentwicklung Künstlicher Intelligenz im Bereich generativer Sprachmodelle haben das Potenzial, auch die SAP Threat Intelligence zu beeinflussen – also die Art und Weise, wie Security-Verantwortliche evidenzbasierte Informationen über Cyber-Angriffe organisieren und analysieren.
Christoph Nagy, Geschäftsführer von SecurityBridge, teilt im Gastbeitrag seine Gedanken zu den Chancen, Risiken mit uns — und gibt eine Empfehlung zum KI-Umgang bei der SAP-Cybersicherheit.
Wie kann KI SAP-Sicherheit verbessern?
Durch ihre Fähigkeit, Muster und Anomalien in riesigen Datenmengen zu analysieren, helfen Algorithmen des maschinellen Lernens dabei, potenzielle Sicherheitsvorfälle schneller und genauer zu erkennen und darauf zu reagieren. KI-Tools automatisieren außerdem sich wiederholende und manuelle Aufgaben, so dass sich das Sicherheitspersonal auf strategischere Aufgaben konzentrieren kann.
Natürlich nutzen auch Kriminelle solche Methoden und erhöhen damit das Risiko für die SAP-Security. So kann KI beispielsweise Phishing-Angriffe automatisieren, wodurch sie überzeugender und schwieriger zu erkennen sind. Sie vermag außerdem Malware zu generieren, die in der Lage ist, herkömmliche SAP-Sicherheitsabwehr zu umgehen.
Zero-Trust als Widerspruch zu KI-Cybersicherheit?
Eine der größten Gefahren der Künstlichen Intelligenz in der SAP-Cybersecurity ist die Ungewissheit über ihre Ergebnisse: KI-Systeme treffen Entscheidungen auf der Grundlage der Daten und Algorithmen, auf denen sie trainiert wurden. Die Ergebnisse sind dabei nicht immer vom Menschen überprüfbar. Dies kann zu einer Situation führen, in der wir der KI blind vertrauen müssen, ohne vollständig zu verstehen, wie oder warum sie eine bestimmte Entscheidung getroffen hat.
Ein solches Maß an Vertrauen kann als grundlegender Widerspruch zur gängigen Zero-Trust-Strategie in der Cybersicherheit verstanden werden. Diese betont die Wichtigkeit der Überprüfung und Authentifizierung jeder (Zugriffs-)Anfrage, unabhängig von ihrer Quelle. Bei KI ist nicht immer ersichtlich, welche Absicht hinter einer bestimmten Antwort steckt. Es bleibt die Herausforderung, Richtigkeit und Authentizität der von KI-Systemen generierten Informationen zu überprüfen.
Angesichts der heute zur Verfügung stehenden Datenmengen und Rechenleistung hat KI das Potenzial, für Social-Engineering-Angriffe eingesetzt zu werden, ohne dass sich das Opfer dessen bewusst ist. Solche Angriffe sollen Menschen dazu bringen, sensible Informationen preiszugeben oder Maßnahmen zu ergreifen, die ihre Sicherheit gefährden. KI hat das Potenzial, Social-Engineering-Angriffe zu automatisieren und sie noch überzeugender zu machen.
Bösartige KI: Neues Bewusstsein ist erforderlich
Bei der Interaktion mit KI-Systemen gilt es aus diesen Gründen, Vorsicht walten zu lassen und ein hohes Maß an Skepsis zu wahren. Die Herausforderung, bösartige KI-Systeme aufzuspüren, wird mit dem Fortschritt der Technologie, die immer vernetzter und intelligenter wird, noch zunehmen. Die Systeme könnten schon bald in der Lage sein, dynamisch auf Ereignisse in Unternehmen zu reagieren. Dann etwa erhalten Beschäftigte scheinbar legitime Nachrichten von einem KI-System, das sich als Support-Mitarbeiter ausgibt, der sich wegen geplanter Wartungsarbeiten gemeldet hat.
Dies unterstreicht die Notwendigkeit, bei der Erkennung und Abwehr von bösartigen KI-Systemen proaktiv vorzugehen. Die Beschäftigten müssen darin geschult werden, wie sie potenzielle Social-Engineering-Angriffe erkennen und darauf reagieren können.
KI-Risiken für Cybersicherheit
Eine fortgeschrittenere Bedrohung ist die Manipulation des KI-Modells. Auch die Trainingsmodelle von KI-Systemen sind ein potenzielles Ziel für Manipulationen. Wenn man einem KI-Modell ständig erklärt, „rot ist grün“, wird es irgendwann grün sagen, obwohl es die Farbe Rot sieht. Es gibt also Möglichkeiten, IT-Systeme, die wir KI nennen, bewusst zu beeinflussen oder gar den Algorithmus zu attackieren.
Angreifer können Social-Engineering-Techniken einsetzen, um Trainingsdaten und Algorithmen zu manipulieren, die von KI-Systemen verwendet werden, um bösartige Aktivitäten auszuführen. Ein Beispiel für diese Art der Manipulation ist der Fall des ChatBot von Microsoft, der durch Social Engineering schnell rassistisch wurde. Der ChatBot, der mit Nutzern interagieren und auf der Grundlage seiner Trainingsdaten Antworten generieren sollte, wurde einem bösartigen Trainingsdatensatz ausgesetzt, der dazu führte, dass das KI-System rassistische und hetzerische Antworten produzierte. KI-Systeme können also manipuliert werden. Deshalb ist es so wichtig, Daten und Algorithmen, mit denen sie KI-Systemen trainiert werden, sorgfältig zu prüfen.
Jede Organisation, die KI-basierte Dienste besitzt, nutzt oder anbietet, steht in der Verantwortung sicherzustellen, dass deren Trainingsmodelle geschützt sind. Dies kann durch die Umsetzung von Richtlinien für die Verwaltung und Überprüfung der Trainingsdaten erreicht werden oder durch die Einführung von Sicherheitsmaßnahmen zur Erkennung und Verhinderung von Manipulationen an den Modellen.
Fazit: KI mit Sorgfalt für SAP-Sicherheit nutzen
Die Ungewissheit der Ergebnisse und das Potenzial der KI-Nutzung für bösartige Angriffe machen deutlich: Beim Einsatz von Künstlicher Intelligenz im Bereich der SAP-Cybersicherheit sollte man Vorsicht und Skepsis walten lassen. Unternehmen müssen Risiken und Grenzen sorgfältig abwägen und geeignete Maßnahmen zum Schutz ihrer Beschäftigten, Systeme und Daten ergreifen.
Solche wären etwa das Erlassen von Richtlinien für die Nutzung und Verwaltung von KI-Systemen und die Einführung von Transparenz- und Rechenschaftsmechanismen, um eine ethische und sichere Nutzung von KI-Systemen zu gewährleisten.
Christoph Nagy verfügt über 20 Jahre Berufserfahrung in der SAP-Branche. Er nutzt dieses Wissen als Gründungsmitglied und CEO von SecurityBridge, einem globalen SAP-Sicherheitsanbieter. Vor seiner Tätigkeit bei SecurityBridge setzte Nagy seine Fähigkeiten als SAP-Technologieberater bei Adidas und Audi ein.