OECD: Richtlinien für Künstliche Intelligenz & mehr Investitionen

Die Entwicklung von künstlicher Intelligenz hat viel Potential entsprechend viel wird Investiert. Der Fortschritt scheint immer mehr Meilensteine zu setzen, welche dem Ziel einer echten KI näher rücken. Aus ethischer Sicht ist dies allerdings nicht unproblematisch. Um auch die ethischen Aspekte der Entwicklung zu diskutieren bleibt also nicht sehr viel Zeit, da vermutlich die ersten Durchbrüche und damit eine rasante Weiterentwicklung von KI bevorsteht. Die OECD mit 36 Mitglied-Staaten hat nun 50 Experten aus verschiedenen Bereichen an einen Tisch gesetzt um mögliche Richtlinien für die KI zu erarbeiten.

OECD: Richtlinien für Künstliche Intelligenz & mehr Investitionen

21. Mai 2019 von   Kategorie: Technik
kuenstliche-intelligenz-ki-ai.jpg
Entstanden ist ein vierseitige Vereinbarung, die in dieser Woche von allen Mitgliedsstaaten beschlossen werden soll. Bisher gibt es keine international gültigen Vereinbarung dazu, welche die USA zustimmt. Von Bedeutung ist dies, weil im Silicon Valley (USA) die wichtigsten und größten Konzerne im Bereich KI sitzen.


Die Experten beschränken sich auf vier wichtige Aspekte
Im Wesentlichen bestehen die ethischen Richtlinien aus vier Punkten:
  1. Künstliche Intelligenz soll der Menschheit nützen und ihr nicht schaden.
  2. Die KI muss die Menschenrechte, demokratische Prinzipien und die nationalen Gesetze respektieren.
  3. Für potentielle Nutzer muss jederzeit klar ersichtlich sein, dass sie mit einer künstlichen Intelligenz interagieren.
  4. Die Hersteller von KI-Anwendungen müssen für Transparenz sorgen und Verantwortung für die Handlungen der künstlichen Intelligenz übernehmen.

Zugleich wird in dem Dokument dazu aufgerufen, die wirtschaftlichen und rechtlichen Rahmenbedingungen zu schaffen, welche die Entwicklung in Sachen intelligenter Algorithmen weiter voranbringen. Alle Experten sind vom Potential der Technologie überzeugt.


China fehlt in der "freiwilligen" Vereinbarung
Die nun getroffene Vereinbarung ist allerdings freiwillig und nicht bindend. Es obliegt also den Mitgliedsstaaten die vorgegebenen Prinzipien in die nationale Gesetzgebung zu übernehmen. China, das in Sachen künstlicher Intelligenz zu den führenden Nationen der Welt gehört, ist übrigens nicht Mitglied der OECD. Daher ist geplant, dass Thema beim nächsten Treffen der G20 im japanischen Osaka auf die Agenda zu setzen.


Europa hängt hinterher in der Entwicklung


Weder bei den Supercomputern noch bei der dazugehörigen Software spielt Europa eine führende Rolle, daher ist es wichtig das auch die Technologie hinter der KI tragkräftig wird. So spielen in der Infrastruktur und in der Erstellung von Elektronikbauteilen komplexe Masseverbindungen im PCB-Layout eine wichtige Rolle.


Die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) hat eindringliche Empfehlungen ausgesprochen. Regierungen sind aufgefordert, öffentliche sowie private Investitionen in die Künstliche Intelligenz (KI) massiv zu steigern. Offene Datensätze sollten für Entwickler eingerichtet werden. Diese Maßnahme würde den Datenaustausch unterstützen – eine wesentliche Voraussetzung für die Entwicklung effektiver KI-Anwendungen.

Die rechtlichen Rahmenbedingungen müssen angesichts der steigenden Bedeutung von KI überprüft werden. So sieht es die OECD vor. Ziel ist es, Forschung reibungsloser in marktreife Anwendungen zu überführen. Deregulierte Umgebungen zur Erprobung neuer Technologien könnten hier Abhilfe schaffen.

Von den Anfängen zur Relevanz im Alltagsleben


Die Ursprünge der KI-Forschung reichen bis in die 1950er Jahre zurück. Damals war das Konzept der Künstlichen Intelligenz vorerst Vision und Theorie. Die letzten Jahre haben jedoch einen Paradigmenwechsel gebracht. Die höhere Rechenleistung, das Aufkommen von Cloud Computing sowie Access zu enormen Datenmengen haben KI von einem Traum zur greifbaren Technologie werden lassen. Künstliche Intelligenz hat Alltagstauglichkeit erreicht.

Diese Technologien bieten enorme Chancen. Beispielsweise können sie in der Krebsbehandlung helfen, Energieeinsparungen erzielen oder beim Klimaschutz unterstützen. Die Risiken auf der anderen Seite sind jedoch nicht zu unterschätzen. Hochmoderne KI-Systeme zeigen oftmals Vorurteile auf, die aus der analogen Welt entstanden sind. Diskriminierung von Minderheiten ist ein ernsthaftes Problem.

Die Privatsphäre in Zeiten von KI


Ein weiteres brisantes Thema ist die Herausforderung für die Privatsphäre. Chinas Nutzung von fortschrittlicher KI zur Schaffung eines umfassenden Überwachungssystems ist alarmierend. Schutzbedürftige Gruppen stehen im Fokus dieser Technologie. Medienberichte belegen, dass solche Maßnahmen nicht nur in China, sondern auch in anderen Ländern diskutiert werden.

In diesem Kontext hat die Europäische Union im März umfassende Leitlinien zur „vertrauenswürdigen“ KI veröffentlicht. Das Ziel ist klar: Technologien sollen europäische Werte respektieren. Sie müssen so gestaltet sein, dass sie weder absichtlich noch unbeabsichtigt Schaden verursachen.

Ein globales Interesse an Regulierung


Die US-Regierung unter Präsident Donald Trump hat ebenfalls aufmerksam die Bestrebungen der EU verfolgt. Schon im Februar forderte Trump die Regulierung von KI in einer Durchführungsverordnung. Berichten zufolge haben US-Beamte aktiv an der Zusammenarbeit mit der OECD gearbeitet. Der Grund? Die letzten Jahre haben gezeigt, dass umfassende Datenschutzbestimmungen weltweit an Bedeutung gewinnen. Die Datenschutzrichtlinien der EU könnten bald den globalen Standard bilden.

Laut Carblanc von der OECD sind die USA stark interessiert, die Entwicklung dieser Prinzipien voranzutreiben. Die OECD hat sich als Plattform erwiesen, um den Dialog über digitale Themen voranzutreiben.

Der Soft Power-Ansatz der OECD und Beispiele aus der Praxis


Die OECD verfolgt traditionell einen "Soft Power"-Ansatz. Dieser Ansatz zielt darauf ab, durch Gruppenzwang Einfluss zu nehmen. Die Prinzipien sollen praktische Auswirkungen haben. Sie können als Rahmen für nationale Regierungen dienen, um geeignete Gesetze auszuarbeiten. Für Unternehmen wird zusätzlich eine Grundlage zur Entwicklung ihrer eigenen KI-Richtlinien bereitgestellt.

Ein Beispiel aus der jüngeren Vergangenheit zeigt bereits, wie solche Prinzipien in der Praxis Anwendung finden können: Die London Metals Exchange kündigte im April an, dass das Unternehmen bis Ende 2022 nur Waren handeln dürfen, die den OECD-Richtlinien für verantwortungsvolle Lieferketten entsprechen.
 

Kommentare

11. Januar 2026

Europäische Union (EU) – AI Act & Menschenrechte-Verpflichtung


EU AI Act (Verordnung (EU) 2024/1689)
Die EU hat als erste Weltregion ein umfassendes, rechtsverbindliches KI-Regelwerk verabschiedet:

  • In Kraft seit 1. August 2024, schrittweise Durchsetzung bis 2026/2027.

  • Risikobasierter Ansatz: KI-Systeme werden nach Risiko kategorisiert (unacceptable → high → limited → minimal risk).

  • Verbotene Praktiken z. B. Social Scoring, biometrische Echtzeit-Überwachung in öffentlichen Räumen, emotionserkennende KI in vielen Kontexten.

  • Hohe Anforderungen für Hochrisiko-KI inkl. Transparenz, Dokumentation, menschlicher Aufsicht und Sicherheitstests.

  • Strenge Strafen bei Nicht-Einhaltung.
Konkrete Leitlinien & Umsetzung

  • Zusätzliche Leitlinien der Kommission klären Verbote und Anforderungen für bestimmte KI-Verwendungen.

  • Besondere Vorgaben für KI-Modelle mit allgemeinem Verwendungszweck (z. B. große Sprachmodelle).
Internationale Verpflichtung – Framework Convention (Europarat)
Ein internationaler völkerrechtlicher Vertrag zur AI-Governance stärkt Grundrechte, Transparenz, Nicht-Diskriminierung und Rechtsstaatlichkeit in KI-Anwendungen – von über 50 Staaten unterstützt.

Der Status quo in den USA: Kluft zwischen Bundesebene und Bundesstaaten



Fehlende einheitliche Regelung
In den USA existiert bislang kein einheitliches umfassendes KI-Gesetz auf Bundesebene. Dennoch gibt es viele Richtlinien und sektoral spezifische Regeln. Executive Orders sind ebenfalls in Kraft. Auf Bundesstaatenebene gibt es bemerkenswerte Initiativen.

Beispiel Californien
Kalifornien setzt mit dem Transparency in Frontier Artificial Intelligence Act (SB-53, 2025) Maßstäbe. Unternehmen sind verpflichtet zu transparenter Risikoanalyse, Dokumentation von KI-Sicherheitsstandards und zum Schutz von Hinweisgebern.

Weitere Bundesstaaten
Das Colorado AI Act (CAIA) fokussiert sich auf High-Risk-AI-Systeme. Verbraucherschutz, Anti-Diskriminierung und staatliche Meldungspflicht sind die Kernpfeiler. Es tritt am 30. Juni 2026 in Kraft. In Texas fördert das Responsible AI Governance Act Innovation durch ein Regulatory Sandbox-System. Es zielt ebenfalls auf Transparenz und Risikomanagement.

Globale Perspektiven: Regelungen in weiteren Regionen



Vereinigtes Königreich
Im Vereinigten Königreich gibt es spezifische KI-Regelungen. Der Online Safety Act ergänzt diese Regelungen. Hierbei liegt der Fokus auf Sicherheit und Verbraucherschutz.

Chinas Ansatz
China verfolgt eine eigene Strategie. Es kombiniert ethische Leitlinien mit spezifischen Regeln. Ab dem 1. September 2025 ist eine klare Kennzeichnung von KI-generierten Inhalten erforderlich.

Indien und Japan
In Indien wirken überarbeitete Datenschutzregeln stark auf KI-Recht ein. Anforderungen an Fairness und Algorithm Auditing kommen hinzu. Japan setzt auf einen "Soft-Law"-Ansatz in der KI-Governance. Sektorale Leitlinien und Innovation stehen im Mittelpunkt.

Übersicht über weitere Initiativen


Singapur entwickelt ein Governance Framework mit Fokus auf Sicherheit und Innovation. Auch Brasilien hat kürzlich einen parlamentarischen AI-Bill verabschiedet – nach europäischem Vorbild. Südkorea stärkt mit dem Basic Act on AI Advancement and Trust Sicherheit und Transparenz.

Internationale Standards und ethische Leitlinien


G7-KI-Verhaltenskodex
Ein freiwilliger Kodex zur verantwortungsvollen KI wurde von den G7-Staaten abgestimmt. Zwar handelt es sich nicht um eine rechtsverbindliche Regelung, doch er setzt einen hohen Standard. Daneben existieren zahlreiche weitere ethische Leitlinien, wie die OECD-AI-Prinzipien. UN-Erklärungen zu verantwortlicher KI sowie sektorale Normen runden das Bild ab.