Ein Gesetz mit weitreichenden Konsequenzen
Das Gesetz zur künstlichen Intelligenz war Jahre in der Entwicklung. Es fungiert als umfassender Regelkatalog zur Verwaltung von KI in Europa. Wenige Länder haben ansatzweise vergleichbare Regelungen in Betracht gezogen. Die EU verfolgt hiermit das Ziel, anderen Regierungen als Beispiel zu dienen, während diese versuchen, Richtlinien für die sich schnell entwickelnde Technologie zu entwerfen.
Risikobasierter Zugang zur KI-Regulierung
Die Bestimmungen des AI Acts erstrecken sich über sämtliche Produkte oder Dienstleistungen, die in der EU angeboten werden und künstliche Intelligenz verwenden. Egal ob es sich um eine Plattform eines Tech-Giganten aus Silicon Valley oder ein lokales Start-up handelt, die Regelungen erfassen alles. Die Vorgaben sind in vier Risikokategorien eingeteilt. Die Mehrheit der KI-Systeme wird voraussichtlich in die Kategorie des niedrigen Risikos eingestuft. Beispiele hierfür sind Empfehlungsalgorithmen für Inhalte oder Spam-Filter.
Schutz der Bürgerrechte im Fokus
"Der europäische Ansatz in der Technologie stellt den Menschen in den Mittelpunkt und sorgt dafür, dass die Rechte aller gewahrt bleiben", so die stellvertretende Vorsitzende der Europäischen Kommission, Margrethe Vestager. Mit der Einführung des AI Acts habe die EU einen entscheidenden Schritt unternommen, um sicherzustellen, dass der Einsatz von KI-Technologien die EU-Vorgaben respektiert.
Stufenweise Umsetzung der Bestimmungen
Die Regelungen des AI Acts werden schrittweise in Kraft treten. Die gestrige Implementierung markiert den Beginn des Countdownzeitraums, in dem diese Bestimmungen in den nächsten Jahren wirksam werden, – ein systematischer Ansatz, der die Anpassung von Unternehmen ermöglicht. KI-Systeme, die ein "inakzeptables Risiko" darstellen, werden ab Februar mit einem umfassenden Verbot belegt. Dazu zählen soziale Bewertungssysteme sowie einige Formen der prädiktiven Polizeiarbeit und auch emotionale Erkennungssysteme an Schulen und am Arbeitsplatz.
Ein neuer bürokratischer Ansatz zur Regulierung
Ab August 2025 treten die Regeln für sogenannte allgemeine KI-Modelle, wie das GPT-4-System von OpenAI, in Kraft. Die EU plant die Einrichtung eines neuen KI-Büros. Dieses Büro wird als Durchsetzer für die allgemeinen KI-Vorgaben fungieren. OpenAI gab in einem Blogbeitrag bekannt, dass das Unternehmen "sich zur Einhaltung des EU AI Acts verpflichtet fühlt." Es werde eng mit dem neuen KI-Büro zusammenarbeiten, während das Gesetz umgesetzt werde.
Langfristige Regulierung in Sicht
Bis Mitte 2026 wird das vollständige Regelwerk in Kraft sein. Hochriskante KI-Systeme, wie solche, die Entscheidungen treffen, wer einen Kredit erhält oder die autonome Roboter steuern, sind ebenfalls Teil der Bestimmungen. Weiterhin existiert eine vierte Kategorie für KI-Systeme mit begrenztem Risiko, die spezifische Transparenzpflichten haben. Ein Beispiel ist der Umgang mit Chatbots – Benutzer müssen darüber informiert werden, dass sie mit einer Maschine interagieren. AI-generierte Inhalte wie Deepfakes müssen ebenfalls gekennzeichnet werden. Bei Nichteinhaltung der Bestimmungen erwarten Unternehmen Geldstrafen von bis zu 7% ihres globalen Jahresumsatzes.
Die europäische Regulierung könnte somit der Beginn für komplexe rechtliche Strukturen im Bereich der KI-Technologie sein.