Künstliche Intelligenz
Wie die neue Regulierung Innovationen ermöglicht und Risiken kontrolliert
Bei keinem Thema liegen Aufbruch und Bedenken vor den zukünftigen Möglichkeiten so nah beieinander wie bei Künstlicher Intelligenz. ChatGPT schreibt Schülerinnen und Schülern die Hausaufgaben, der neue KI-Assistent von Meta hilft bei der Verständlichkeit von Kurznachrichten, tumorerkennende Software in der Radiologie ermöglicht schnellere Diagnosen, KI-basierte Assistenzsysteme erhöhen die Sicherheit im Straßenverkehr. KI kann eine digitale Schlüsseltechnologie sein, die für Gesellschaft und Wirtschaft einen großen Nutzen bietet.
Ohne Kontrolle werden aber auch Szenarien denkbar, die bislang Science-Fiction-Filmen vorbehalten waren: die Menschen verlieren die Kontrolle über die von ihr geschaffene Technik.
Alle Gefahren des Einsatzes Künstlicher Intelligenz vorherzusehen, ist nahezu unmöglich. Fest steht aber: KI-Anwendungen müssen sicher, zuverlässig und transparent sein. Sie müssen unsere Grundwerte und Grundrechte wahren.
Um Innovationen zu fördern und trotzdem Risiken zu minimieren, hat die Europäische Union mit dem AI Act das weltweit erste umfassende Gesetz zum Umgang mit Künstlicher Intelligenz geschaffen. Die einzelnen Regelungen treten nach und nach bis August 2027 in Kraft. Mit diesem Gesetz soll Europa zum globalen Zentrum für vertrauenswürdige Künstliche Intelligenz werden.
Innovation fördern durch Regulierung
Es wird geschätzt, dass das Bruttoinlandsprodukt in Deutschland durch KI bis zum Jahr 2030 um über 11 Prozent gesteigert werden kann. Mit Blick auf die europäischen Wirtschaft, prognostiziert die EU-Kommission für denselben Zeitraum sogar ein Wachstum von fast 20%. Ermöglicht werden diese Wertschöpfungspotenziale vor allem durch Kostensenkungen, Qualitätsverbesserungen, exaktere Prognoseverfahren und ganz neue Geschäftsmodelle und Anwendungen, die erst auf Basis von KI entwickelt werden können.
Eine Säule des neuen europäischen Gesetzes ist daher die Förderung der Chancen von Künstlicher Intelligenz: das Innovationspotential durch die Nutzung von KI ist riesig. Der Aufbau von Kompetenz in Entwicklung und Nutzung von KI ist im Eigeninteresse der Unternehmen. Daher hat der europäische Gesetzgeber unter anderem festgelegt, dass sich Anbieter und Betreiber in Sachen Digitalisierung und KI fortbilden müssen und über den festgeschriebenen Begriff der „KI-Kompetenz“ verfügen müssen. Diese Verpflichtung gilt bereits seit Anfang diesen Jahres.
Was bedeutet KI-Kompetenz? KI-Kompetenz bedeutet die Fähigkeiten, die Kenntnis-se und das Verständnis, KI-Systeme sachkundig, verantwortungsvoll und sicher einzusetzen. Es geht darum, sich der Chancen und Risiken von KI bewusst zu sein. Unternehmen müssen nach besten Kräften sicherstellen, dass alle Personen über ein ausreichendes Maß an KI-Kompetenz verfügen, die in ihrem Auftrag KI-Systeme betreiben oder nutzen.
Dazu, wie die Unternehmen diese Regelung umsetzen sollen, macht das Gesetz keine konkreten Vorgaben. Die Bundesnetzagentur unterstützt sie daher bereits jetzt im Rahmen von Online-Veranstaltungen oder Hinweispapieren zu den konkreten Anforderungen.
Zusammenarbeit und Praxistests in Reallaboren
Deutschland ist eines der weltweit führenden Länder in der Forschung zu Künstlicher Intelligenz. Die Unternehmen in Deutschland sind bereits heute sehr gut aufgestellt – Automatisierung und selbstlernende Systeme werden seit langem genutzt und weiterentwickelt. Allerdings besteht auch eine große Unsicherheit der Marktakteure im Hinblick auf die Erfüllung der neuen Vorgaben. Und es stimmt: Die neuen Regelungen sind komplex.
Daher wird auch die Behörde, die das Gesetz für Deutschland umsetzt eine besondere Verantwortung haben. Sie muss mit anderen europäischen Behörden eng zusammenarbeiten und eine einheitliche Aufsicht sicherstellen. Es sollte kein abweichendes Verständnis des Gesetzes in der EU vorhanden sein. In Deutschland sollte es möglichst eine Behörde geben, bei der alle Kompetenzen in einer Hand liegen, um die gesetzlichen Vorgaben zu KI umzusetzen. Die Bundesnetzagentur steht hierfür bereit.
Die Regulierung von Künstlicher Intelligenz sollte zudem innovationsfreundlich sein. Das bietet allen Marktakteuren Raum für Fortschritt und Wachstum. Natürlich brauchen wir Rechtssicherheit beim Einsatz von Künstlicher Intelligenz. Klare Regeln, deren konsequente Durchsetzung und der regelmäßige enge Austausch mit allen Marktakteuren sorgen dafür.
Ein wichtiges Element einer innovationsfreundlichen KI-Regulierung sind sogenannte Reallabore. Sie bieten Unternehmen für einen festgelegten Zeitraum eine kontrollierte Umgebung unter behördlicher Begleitung. So können sie KI-Innovationen vor ihrer Markteinführung testen und mögliche Fragen vorab mit den Aufsichtsbehörden klären. Die Bundesnetzagentur plant, solche Reallabore für Künstliche Intelligenz einzurichten. Es kann vor allem für Startups und kleine und mittlere Unternehmen bei der Entwicklung innovativer KI-Anwendungen eine wichtige Unterstützung sein.
Die Bedeutung von Künstlicher Intelligenz ist fundamental. Deshalb brauchen wir auch einen dauerhaften, engen Austausch mit der Wissenschaft und der Zivilgesellschaft und selbstverständlich einen engen Austausch mit weiteren Behörden. Nur so finden die berechtigten Interessen aller gesellschaftlichen Gruppen angemessen Berücksichtigung.
Vorgaben nur dort, wo Risiko besteht
Die Europäische Union setzt auf eine risikobasierte Regulierung – das heißt: Je höher das Risiko einer KI-Anwendung ist, desto strenger sind die Vorgaben. Hierbei kann allerdings nicht oft genug betont werden: Von den allermeisten KI-Anwendungen gehen keine besonderen Risiken aus. Dazu gehören beispielsweise Chatbots in der Kundenkommunikation, E-Mail Spamfilter, personalisierte Produktvorschläge oder Computerspiele, die KI einsetzen. Für diese Anwendungen gelten keine oder nur sehr geringe Anforderungen wie Transparenzvorgaben. Das heißt zum Beispiel, dass Verbraucherinnen und Verbraucher darüber informiert werden müssen, dass sie mit einem Chatbot kommunizieren.
Demgegenüber unterliegen KI-Anwendungen, von denen Gefahren für Leib und Leben ausgehen oder die europäische Grundrechte verletzten könnten, einer strengen Marktüberwachung. Dies sind z.B. KI-Systeme in der Gesundheits- und Energieversorgung, im Eisenbahn- und Flugverkehr oder solche, die Entscheidungen über Sozialleistungsansprüche oder Kreditwürdigkeiten treffen.
KI-Anwendungen, die den grundlegenden Werten der Europäischen Union eindeutig widersprechen, sind verboten. Dazu gehören Anwendungen, die die Schutzbedürftigkeit von Kindern, älteren oder beeinträchtigten Menschen ausnutzen. Gemeint sind aber auch solche, die anlasslos und flächendeckend den öffentlichen Raum überwachen.
Verboten sind auch Praktiken der Künstlichen Intelligenz, die die Entscheidungen von Menschen manipulieren oder ihre Schwachstellen ausnutzen. Genauso wenig erlaubt sind Systeme, die Menschen, etwa auf der Grundlageihrer persönlichen Eigenschaften, bewerten oder Systeme, die das Risiko einer Person, eine Straftat zu begehen, vorhersagen. Das Gesetz verbietet zudem KI-Systeme, die Gesichtsbilder aus dem Internet oder aus Videoüberwachungsanlagen auslesen, auf Emotionen am Arbeit-platz oder in Bildungseinrichtungen schließen und Menschen auf der Grundlage ihrer biometrischen Daten kategorisieren.
Die Bundesnetzagentur kann hier die Vorgaben und Leitlinien, die der europäische Gesetzgeber macht, weiter ausgestalten und mit Leben füllen - und dadurch die Risiken verringern und die Grenzen zwischen erlaubten und verbotenen Anwendungen ziehen.
Risiken minimieren und Innovationen fördern – mit diesen beiden Säulen bietet das neue Gesetz zur Künstlichen Intelligenz die Grundlage, Bedenken vor unkontrollierter Technik auszuräumen und den Unternehmen die Chancen zu geben, KI als Motor für Innovationen zu nutzen.