Risikostufen
Die KI-Verordnung basiert auf einem risikobasierten Regulierungsansatz: Je höher das Risiko einer KI-Anwendung ist, desto strenger ist die Aufsicht.
Wie wahrscheinlich ist es, dass ein gewisser Schaden auftritt?
und
Wie groß ist der Schaden?
Die Verordnung umfasst eine Reihe von Regelungen, die KI-Systeme in verschiedene Risikostufen einteilen, die weiter unten näher erläutert werden. Diese Stufen beeinflussen die Anforderungen, die an die Systeme gestellt werden.
Von den allermeisten KI-Anwendungen gehen keine besonderen Risiken aus. Dazu gehören beispielsweise E-Mail-Spamfilter, personalisierte Produktvorschläge oder Chatbots in der Kundenkommunikation sowie Computerspiele, die KI einsetzen. Für diese Anwendungen gelten keine oder nur sehr geringe Anforderungen wie Transparenzvorgaben.
Es gibt aber auch KI-Anwendungen, von denen Gefahren für Leib und Leben ausgehen oder die europäischen Grundrechte verletzen könnten. Sie unterliegen einer strengen Aufsicht. Dazu gehören z. B. KI-Systeme in der Gesundheits- und Energieversorgung, im Straßen- und Flugverkehr oder solche, die Entscheidungen über Sozialleistungsansprüche oder Kreditwürdigkeiten treffen.
Diese Risikostufen gelten nur für KI-Systeme. Für KI-Modelle mit allgemeinem Verwendungszweck gelten spezielle Anforderungen. Näheres dazu finden Sie hier
Vier Risikostufen
Inakzeptables Risiko | Verboten Einige KI-Systeme werden als inakzeptabel risikobehaftet eingestuft, da sie gegen EU-Grundrechte verstoßen oder eine deutliche Bedrohung für die Sicherheit und Gesundheit von Menschen darstellen. Daher sind solche KI-Systeme seit dem 2. Februar 2025 in der EU vollständig verboten. Dazu gehören u.a.:
Weiterführende Informationen: hier |
Hohes Risiko | Nur mit Konformitätsbewertung erlaubt KI-Systeme mit hohem Risiko bergen die Gefahr, durch Fehlfunktionen oder bei Missbrauch erheblichen Schaden zu verursachen. Deshalb unterliegen sie strengen Vorschriften, um sicherzustellen, dass deren Einsatz keine negativen Auswirkungen auf die Gesundheit und Sicherheit von Personen und deren Grundrechte, oder auf die Umwelt hat. Hierbei werden zwei verschiedene Bereiche von Hochrisiko-KI betrachtet. Beispiele für hochriskante Anwendungen in diesen sind:
|
Begrenztes Risiko | Transparenzpflichten Für bestimmte KI-Systeme gelten weniger strenge Vorschriften. Hierzu gehören die meisten kommerziellen Anwendungen von KI, wie etwa Chatbots, Empfehlungsalgorithmen oder KI-Systeme zur Erstellung von Text-, Bild- oder Audiomaterial. Von den meisten dieser KI-Systeme geht nur ein geringes Risiko aus. Wenn in Hochrisiko-KI-Systemen diese bestimmten KI-Systeme implementiert werden, gelten die Transparenzpflichten zusätzlich zu den Hochrisiko-Anforderungen. Dennoch müssen Unternehmen sicherstellen, dass diese Systeme transparent und benutzerfreundlich sind, da hier potentiell Risiken hinsichtlich Manipulation oder sogenannter „Deep Fakes“ auftreten können. So müssen Nutzer darüber informiert werden, dass sie mit einer KI und nicht mit einem Menschen interagieren. |
Minimales bzw. kein Risiko | Keine besonderen Verpflichtungen, freiwillige Verhaltenskodizes sind möglich KI-Systeme mit minimalem Risiko, wie beispielsweise Spam-Filter, sind weitgehend unreguliert, da sie keine signifikanten Risiken für die Gesellschaft oder Einzelpersonen darstellen. Auf freiwilliger Basis wird dennoch empfohlen, dass solche Systeme gewissen Prinzipien für vertrauenswürdige KI folgen, z. B. hinsichtlich Fairness und Transparenz. |
Links und Downloads
KI-Compliance Kompass der Bundesnetzagentur
Hinweispapier: KI-Kompetenzen nach Artikel 4 KI-Verordnung (pdf / 357 KB)
KI-Büro der Europäischen Kommission
EU-Leitlinien zur Definition von KI-Systemen
EU-Leitlinien zu verbotenen Praktiken der künstlichen Intelligenz
EU-Praxisleitfaden zu GPAI-Modellen
Digitale Transformation im Mittelstand
EU-Leitlinien für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck (pdf / 557 KB)