AI Act tritt in Kraft: Was man zum KI-Gesetz der EU wissen muss

Der AI Act ist ein neues Gesetz der EU, das ab dem 1. August 2024 gilt. Es regelt, wie KI-Systeme entwickelt und genutzt werden dürfen. Es gibt vier Kategorien von KI-Risiken, von minimalem bis zu inakzeptablem Risiko.

Am 1. August 2024 ist der AI Act der Europäischen Union in Kraft getreten. Dieses Gesetz zielt darauf ab, KI-Systeme innerhalb der EU zu regulieren und bei besonders hohem Risiko sogar zu verbieten. Diese Maßnahme ist weltweit die erste ihrer Art und verspricht umfassende Änderungen in der Entwicklung und Anwendung von KI-Technologien. Hier sind die wichtigsten Details.


Entstehung und Entwicklung des AI Acts

Der erste Vorschlag für den AI Act wurde im April 2021 vorgelegt, lange bevor der aktuelle KI-Hype durch die Veröffentlichung von ChatGPT im Jahr 2022 ausgelöst wurde. Deutschland, Frankreich und Italien hatten sich gegen zu strenge Regelungen gewehrt, um Wettbewerbsnachteile zu vermeiden. Nach zähen Verhandlungen kam es am 8. Dezember 2023 zur Einigung, die der EU-Kommissar Thierry Breton mit dem Tweet „Deal!“ verkündete. Das EU-Parlament gab am 13. März 2024 grünes Licht, wodurch der Weg für das weltweit erste umfassende KI-Gesetz frei war.


Struktur und Einführung des AI Acts

Der AI Act ist seit dem 1. August 2024 in Kraft. Unternehmen müssen sich nun schrittweise an die neuen Richtlinien halten. Verbote bestimmter KI-Systeme treten ab Februar 2025 in Kraft, und einige Verpflichtungen für besonders risikoreiche KI-Systeme gelten erst 36 Monate nach dem Start des AI Acts. Spätestens zwei Jahre nach der Einführung soll der AI Act vollständig bindend sein.


Risikoklassen und ihre Bedeutung

Der AI Act unterteilt KI-Systeme in vier Risikoklassen, die bestimmen, welche Auflagen erfüllt werden müssen:

Inakzeptables Risiko: KI-Systeme, die eine klare Gefahr für Menschen und deren Sicherheit darstellen, wie etwa biometrische Kategorisierungen oder Social-Scoring, sind verboten.
Hohes Risiko: Systeme, die wesentliche Auswirkungen auf Sicherheit, Gesundheit und Grundrechte haben könnten, müssen strenge Auflagen erfüllen. Beispiele sind KI in medizinischen Geräten oder Fahrzeugen.
Begrenztes Risiko: Systeme, die Manipulationsrisiken bergen, wie Chatbots, die Falschinformationen verbreiten könnten, müssen Nutzerinformieren und KI-generierte Inhalte kennzeichnen.
Minimales Risiko: Systeme, die keinen der genannten Risikopunkte erfüllen, können ohne Einschränkungen genutzt werden.


Verbotene KI-Funktionen

Mehrere Funktionen werden aufgrund ihres hohen Risikos als inakzeptabel eingestuft und verboten:

Social-Scoring: Bewertung von Personen basierend auf Verhalten und Aktivitäten.
Unterschwellige Manipulation: Verhaltensänderung oder Meinungsbeeinflussung ohne Wissen der betroffenen Person.
Biometrische Erfassung in Echtzeit: Echtzeit-Biometrie in öffentlichen Räumen ist verboten, mit Ausnahmen für Terrorismusbekämpfung und Vermisstenfahndung.
Emotionserkennung: Verboten am Arbeitsplatz und in Bildungseinrichtungen, jedoch erlaubt in sicherheitsrelevanten Anwendungen wie der Erkennung von schläfrigen oder betrunkenen Autofahrer.
Scraping von Gesichtern: Sammlung von Gesichtsbildern aus dem Netz oder Überwachungskameras ist verboten.
Voraussagen in der Polizeiarbeit: Feststellung von zukünftigen Straftaten basierend auf Eigenschaften einer Person ist untersagt.


Regulierung von großen Sprachmodellen

Ein großer Streitpunkt war die Regulierung von KI-Basismodellen, die auf riesigen Datenmengen trainiert werden und für spezifische Anwendungsfälle optimiert sind. Entwickler solcher Modelle müssen künftig eine technische Dokumentation bereitstellen, die Trainingsdaten und Testverfahren offenlegt. Strengere Auflagen gelten für Modelle mit hohem Risiko, basierend auf der beim Training eingesetzten Rechenleistung, festgelegt bei 10^25 Gleitkommaoperationen.


Auflagen für Unternehmen mit hohem Risiko

Unternehmen, die KI-Systeme mit hohem Risiko betreiben, müssen zehn Richtlinien beachten. Dazu gehören Qualitätsmanagement, umfassende Tests, Transparenz, Registrierung und Konformitätsuntersuchungen. Verstöße können hohe Strafen nach sich ziehen, die sich am weltweiten Jahresumsatz orientieren.


Strafen bei Missachtung des AI Acts

Firmen, die verbotene KI-Systeme einsetzen, müssen mindestens 35 Millionen Euro oder sieben Prozent des Vorjahresumsatzes zahlen. Nicht eingehaltene Verpflichtungen können zu Strafen von drei Prozent des Vorjahresumsatzes oder mindestens 15 Millionen Euro führen. Falsche Informationen über KI-Modelle ziehen Strafen von 1,5 Prozent des Umsatzes oder mindestens 7,5 Millionen Euro nach sich.


Aufsicht und Einhaltung des AI Acts

Mit Inkrafttreten des AI Acts werden neue Regulierungsbehörden eingerichtet. Innerhalb der EU-Kommission überwacht eine KI-Behörde die Einhaltung der Regeln für Basismodelle. Nationale Behörden sorgen auf Länderebene für die Einhaltung und treffen sich im EU-Ausschuss, um eine einheitliche Interpretation des Gesetzes sicherzustellen.


Kritik am AI Act

Während viele EU-Politiker den AI Act als „der Gesellschaft dienend“ begrüßen, äußern KI-Expert
Kritik an unklaren Begrifflichkeiten und Definitionen. Sie befürchten, dass die breite Definition von KI auch einfachere Software umfasst und Unternehmen verunsichern könnte. Zudem gibt es keine Unterscheidung zwischen Open-Source- und geschlossenen Projekten, was transparente KI-Systeme benachteiligen könnte.


Fazit

Der AI Act der EU ist ein bedeutendes Gesetz, das die Entwicklung und Nutzung von KI-Systemen innerhalb der EU reguliert. Er stellt sicher, dass besonders risikoreiche KI-Anwendungen strengen Auflagen unterliegen und einige Funktionen sogar verboten werden, um die Sicherheit und Grundrechte der Menschen zu schützen. Trotz einiger Kritikpunkte markiert der AI Act einen wichtigen Schritt in der globalen KI-Regulierung.


Zusammenfassung in einfacher Sprache

Der AI Act ist ein neues Gesetz der EU, das ab dem 1. August 2024 gilt. Es regelt, wie KI-Systeme entwickelt und genutzt werden dürfen. Es gibt vier Kategorien von KI-Risiken, von minimalem bis zu inakzeptablem Risiko. Besonders gefährliche KI-Anwendungen sind verboten. Firmen, die gegen das Gesetz verstoßen, müssen hohe Strafen zahlen. Es gibt Kritik an dem Gesetz, aber es soll die Sicherheit der Menschen schützen.