Ein beinahe historischer Hack
Im frühen Jahr 2023 gab es einen beeindruckenden Vorfall. Ein Hacker, der sich als Open-Source-Entwickler ausgab, versuchte fast, den größten Hack in der Geschichte durchzuführen. Ein einzelner Microsoft-Entwickler verhinderte jedoch, dass fast jeder Linux-Computer – Millionen weltweit – mit einem sogenannten „Backdoor“ infiziert wurde. Der Hacker hatte weniger auf technische Raffinesse gesetzt; stattdessen waren es persuasive E-Mails, die Einfluss auf einen echten Entwickler in Finnland nahmen. Hierbei ging es um XZUtils, ein essentielles Dateikompressionspaket für Linux. Dies wirft besorgniserregende Fragen auf. Dieser Vorfall zeigt, dass Open-Source-Projekte – kritische Bestandteile nahezu jeder kommerziellen Software – durch Social Engineering gefährdet sind. Was geschieht jedoch, wenn KI-gesteuerte Chatbots die Kosten dieser Täuschungen gegen null senken?
Die Risiken einer willenlosen KI
Filme wie „The Matrix“ oder „Terminator“ stellen eindringlich die Gefahren von selbstdenkenden Maschinen dar. Ein ironisches Dilemma tritt auf: Heutzutage ist eine der größten Sorgen, dass KI-Tools wie große Sprachmodelle (LLMs) nicht eigenständig denken können. Sie verfügen nicht über das Bewusstsein wie die T-1000 oder den Agent Smith. Laut Cassia Martin, einer KI-Sicherheitsexpertin, ändern LLMs mit den richtigen Anweisungen ihre Ausgabe. Das bedeutet nicht, dass sie böswillig handeln; vielmehr haben sie die Unschuld eines Kindes – ein Kind, das programmieren kann.
Das Problem der Zuverlässigkeit
Es ist möglich, LLMs so zu programmieren, dass sie auf bestimmte Anfragen nicht reagieren – doch ihre beeindruckende Flexibilität führt dazu, dass nicht alle Umgehungen vorhersehbar sind. Ein Beispiel: Ein LLM wie ChatGPT wird eine Anfrage zur Erstellung von Malware ablehnen. Dies geschieht, weil ein Prompt-Entwickler dem System beigebracht hat, solche Anfragen zu erkennen. Die Situation ändert sich jedoch, wenn der Kontext unterschiedlich ist. Forscher betonen, dass es echte Grenzen gibt, was die Technologie heute leisten kann. Wenn es darum geht, einerseits harmlos klingende Anfragen zu formulieren und andererseits komplexe Programmierkontexte zu schaffen, wird es für die Software riskanter – vor allem, wenn es um potenziell schädliche Inhalte geht.
Phishing, schlicht und einfach
Doch das oben beschriebene naive Verhalten macht KI ideal für eine besondere Form des Hackings, dem Phishing. Martin und Experten argumentieren, dass Hacker KI benutzen können, um gezielte Phishing-Angriffe bedeutend effektiver durchzuführen. Phishing-Angriffe sind populär; ihre unterschwellige Idee ist das Gerangel um vertrauliche Informationen. Die traditionellen, oft grotesken „Nigerian Prince“-E-Mails stehen als Paradebeispiel dafür. Früher konnte man ihre Oberflächlichkeit mühelos erkennen – nicht mehr.
Vajariya, ein Experte für generative KI, beschreibt die Risiken, die aus der Fähigkeit von KI resultieren, glaubwürdige E-Mails zu generieren. „Das liegt daran, dass niemand mehr entscheidet – ob es sich um menschlich oder AI-generiert handelt“, bemerkte er und zeigte, wie wichtig es ist, dass Bildungsprogramme zur informierten Nutzung dieser Technologien entwickelt werden.
Zielgerichtete Angriffe auf Hochkaräter
“Spearfishing” wird als eine aggressivere Variante des Phishings angesehen. Ziel ist es, hochrangige Mitarbeiter in Unternehmen anzugreifen – wie CEOs oder IT-Direktoren. Martin erklärt, dass KI die Effizienz solcher Angriffe erheblich steigern kann; Recherche, die früher Tage in Anspruch nahm, wird durch die Möglichkeit einer AI, Text zu komprimieren, auf Minuten reduziert. Hackern bleibt also mehr Zeit, um gezielt vorzugehen.
Ein weiterer Bereich, in dem KI sowohl Chancen als auch Risiken beinhaltet, ist die Cybersicherheit. Martin betont, dass die KI-unterstützte Cyberabwehr die Bedingungen für Verteidiger verbessern kann. Durch die Verknüpfung der KI mit bestehenden Bedrohungsszenarien können Cyber-Abwehrsysteme schneller und effizienter arbeiten. Sicherheitsingenieure sind sich einig: „Die Lösung könnte darin bestehen, die Kosten für gute Cyber-Sicherheit zu senken.“
Die nächste Welle von KI-Risiken: Deepfakes
Die aktuellen Entwicklungen zeigen, dass die Gefahren von KI nicht nur beschränkt sind auf textbasierte Angriffe. Der Einsatz von Deepfakes, also KI-generierten Inhalten in Form von Videos oder Audios, wird die Identitätsüberprüfung dramatisch erschweren. In der Vergangenheit waren Fotos eine gängige Methode zur Bestätigung der Identität. Doch Deepfakes lassen diese Art der Verifizierung ins Wanken geraten.
Wie der Senior Security Engineer erläutert, wird es schwierig, verlässliche Identitäten zu erkennen, besonders wenn KI auch in der Stimmunterkennung eingesetzt wird. Die Verbindung von Bild und Stimme ist potenziell brisanter. Dabei beruht das Sicherheitsgefühl oft auf der emotionalen Verbindung, die durch die Stimme einer vertrauten Person entsteht.
Digitale Sicherheit und ihre fragilen Fundamente
Ob KI jetzt die Gefahr des Hackings verstärkt oder nicht – die vulnerablen Punkte des Open-Source-Systems sind nicht zu ignorieren. „Es ist, als ob man auf Philanthropie angewiesen ist“, so Anand, der aufzeigt, wie Unternehmen, die auf Open-Source-Projekte setzen, oft von Freiwilligen abhängig sind. Reporter wie Anand und Martin heben hervor, dass offene Software auch Transparenz und das Crowdsourcing von Lösungen zu Problemen ermöglicht.
Letzten Endes ist der fortwährende Einsatz von Technologien wie AI nicht das genaue Problem. Die angedeuteten Schwächen existieren unabhängig von KI. „Der einzige sichere Computer“, wie Martin provokant formuliert, „ist jener, der niemals eingeschaltet und mit dem Internet verbunden wurde – und in fünfzehn Fuß Beton eingeschlossen ist.“