„Die On­line-Platt­for­men müs­sen ih­rer ge­sell­schaft­li­chen Ver­pflich­tung ge­recht wer­den“

Rückblick auf ein halbes Jahr Digital Services Coordinator: Interview mit Johannes Heidelberger

Wenn Du auf einer Party gefragt wirst, was Deine Aufgabe bei der BNetzA ist, wie erklärst Du sie?
Die Koordinierungsstelle Digitale Dienste ist seit etwas über einem Jahr eingerichtet. Ich habe deren Leitung am 1. Juli dieses Jahres übernommen. Die Koordinierungsstelle – auf Englisch Digital Services Coordinator oder DSC – soll dafür sorgen, dass Online-Plattformen die Nutzenden in den Mittelpunkt stellen. Sie sollen für die Nutzenden ansprechbar sein und ihnen gegenüber Rechenschaft ablegen, beispielsweise, wenn Sie Inhalte sperren oder Accounts löschen. Und: Die Plattformen sollen ihrer gesellschaftlichen Verpflichtung gerecht werden.

Was heißt das: gesellschaftliche Verpflichtung?
Sehr große Plattformen und Suchmaschinen1 müssen identifizieren, welche Risiken ihre Geschäftsmodelle haben; zum Beispiel für Gesundheit, gesellschaftlichen Zusammenhalt, Schutz von Kindern und Jugendlichen, den demokratischen Diskurs und die Medienvielfalt. Wenn es hier Risiken gibt, dann sind sie verpflichtet, diese zu mindern.

Aber eure Stelle hat nicht die Aufsicht über alle großen Plattformen, richtig? Die Aufgaben sind verteilt.
Richtig. Wir arbeiten in einem Netzwerk von Regulierungsbehörden. Zentral ist die Europäische Kommission, die auch selbst in der Plattform-Regulierung tätig ist. In allen Mitgliedsstaaten der EU gibt es DSCs, die zusammenarbeiten. Wir informieren uns gegenseitig und stimmen uns eng ab, denn viele Online-Plattformen sind in ganz Europa tätig. Die Europäische Kommission ist für die systemischen Risiken zuständig – die gesellschaftliche Verantwortung der Plattformen, die ich gerade beschrieben habe. Die Kommission kann auch jedes andere Verfahren, das eine sehr große Plattform oder Suchmaschine betrifft, an sich ziehen, wenn die Regeln des Digital Services Act verletzt werden. Der DSA ist die europäische gesetzliche Grundlage, nach der wir arbeiten. Die DSCs in den einzelnen Mitgliedstaaten sind für die Plattformen zuständig, die entweder ihren Sitz im jeweiligen Mitgliedsstaat haben oder einen rechtlichen Vertreter.

Seit Ende Oktober gibt es das Datenzugangsportal. Was hat es damit auf sich?
Forschungseinrichtungen dürfen von den sehr großen Plattformen und Suchmaschinen Daten zur Untersuchung der besagten systemischen Risiken verlangen. Rein praktisch müssen Forschende sich bei einem Datenzugangsportal der Europäischen Kommission registrieren. Dort geben sie an, welche Daten sie von welchen Anbietenden für welchen Zweck benötigen und ob sie die Voraussetzungen, etwa zu Datenschutz und Datensicherheit erfüllen. Von solchen Daten versprechen wir uns viele Erkenntnisse darüber, wie Plattformen tatsächlich funktionieren und welche gesellschaftlichen Auswirkungen von ihnen ausgehen. Die Kommission kann diese Ergebnisse dann auch in ihren Verfahren zu systemischen Risiken verwenden.

Wenn ich als Nutzerin auf einer Online-Plattform unterwegs bin und stelle da fest, dass Produkte gefälscht sind. Oder ich bemerke auf einem Social-Media-Kanal, da verbreitet jemand Videos mit sexualisierter Gewalt gegen Kinder oder verbotene nationalsozialistische Inhalte. Und dann melde ich mich beim DSC?
Nein. Im ersten Schritt wendest du dich an die Plattform und meldest das gefälschte Produkt oder was auch immer. Bei strafbaren Inhalten solltest du zusätzlich auch Anzeige bei der Polizei erstatten. Nur wenn du diese Meldung nicht machen kannst, weil es einfach keinen Meldeweg gibt, der Meldeweg nicht benutzerfreundlich ist oder die Plattform gar nicht auf deine Meldung reagiert, könnte es ein DSA-Verstoß sein. Dann gibst du uns Bescheid und wir können deine Information verwenden, um ein Verfahren gegen die Plattform zu führen. Wichtig ist: der DSC kann keine Inhalte oder Accounts löschen oder wiederherstellen – das liegt in der Verantwortung der Plattformen.

Die Plattform bekommt also erstmal die Chance, ihren Fehler zu beheben.
Genau. Und nicht nur das. Vor allem muss sie Strukturen zur Verfügung stellen, damit die Nutzenden auf einfache Weise solche Meldungen machen können. Und dass sie transparent informiert werden über Allgemeine Geschäftsbedingungen, Community Guidelines und Ansprechpartner für Nutzende und Behörden usw. angeben. Zudem müssen Plattformen ihre Moderationsentscheidungen gegenüber den Nutzenden begründen. Das verhindert, dass Plattformen Black Boxes bleiben.

Ihr verstärkt die Stimmen der Nutzenden und tretet für deren Rechte gegenüber den Online-Plattformen ein. Kann man das so sagen?
Ja. Wir ermöglichen, dass die Bürgerinnen und Bürger ihre Anliegen überhaupt vorbringen können und sie Hilfe bekommen.

Was interessiert dich an dieser Aufgabe? Warum hast Du Dich auf diese Stelle beworben?
Ich finde, es ist höchste Zeit, dass Online-Plattformen reguliert werden. Online-Plattformen gibt es seit den 90er Jahren. Sie haben das Privileg, dass sie nicht direkt haftbar sind für das, was auf ihren Seiten gepostet und angeboten wird. Das bedeutet eine große Freiheit. Das hat diese unglaubliche Dynamik des Marktes ermöglicht. Aber es ist hier etwas in Schieflage geraten. Die Geschäftsmodelle der Plattformen haben sich zu weit von den Nutzenden entfernt, Teile davon können Nutzenden dezidiert schaden. Es bestehen Risiken für die Gesellschaft, die die Plattformen nicht mindern. Daher gibt es nun Sorgfaltspflichten.

Es ist also nicht nur ein Gefühl, das Viele beschreiben, dass sich der Ton der Auseinandersetzung verschärft hat, dass es unsachlicher geworden ist, Hass und Hetze um sich greifen und falsche Informationen bewusst verbreitet werden, um undemokratische Ziele zu verfolgen. Das passiert wirklich.
Ja. Seit den 2010er Jahren sind immer mehr Gesetze gemacht worden mit dem Ziel, das einzugrenzen. In Deutschland zum Beispiel 2017 das Netzwerkdurchsetzungsgesetz. Aber es hat sich gezeigt, dass Gesetze einzelner EU-Mitgliedstaaten nicht ausreichten. Außerdem drohte der EU-Binnenmarkt zu zersplittern. Also haben wir jetzt ein Gesetz, dass EU-weit gilt: Den Digital Services Act. Die Plattformen sind ja auch EU-weit tätig.

Du hast schon gesagt, ihr seid eng vernetzt mit der EU Kommission und mit den anderen DSCs. Was heißt das für deine Arbeit? Bist du mehr in Bonn oder in Brüssel?
Ich bin größtenteils in Bonn und manchmal in Berlin. Alle zwei Monate fahre ich zu den Board-Sitzungen nach Brüssel. Dort treffen sich alle DSCs mit der Europäischen Kommission. Wir diskutieren Leitlinien und Themenschwerpunkte. Unter dieser Ebene gibt es acht thematische Arbeitsgruppen, in denen sich Mitarbeitende der DSCs und die Kommission austauschen. Da geht es zum Beispiel um Verfahrensstände, Kommunikationsstrategien, Kinder- und Jugendschutz oder die Auslegung von Rechtsnormen.

Was nimmst du davon für deine Arbeit als DSC Deutschland mit?
Wir sind ein sehr vielfältiger Haufen in diesem Board. In manchen Mitgliedsstaaten liegt die Regulierung der Online-Plattformen bei den Wettbewerbsbehörden oder bei den Medienregulierern. Der italienische DSC ist auch die Urheberrechts-Behörde. Sowas gibt es in Deutschland gar nicht. So können alle ihre Erfahrung, ihre Perspektive einbringen und alle haben etwas davon. Das besondere im Vergleich zu anderen Themen, bei denen es eine europäische Zusammenarbeit gibt: Die EU-Kommission hat hier selbst Vollzugs-Kompetenz, bis hin zu Strafen, die sie verhängt. Ihre Arbeit hat praktische Verfahren zur Folge. Das führt zu einem ganz anderen Verständnis dafür, was Regulierung eigentlich praktisch bedeutet. Ich spüre jedenfalls einen starken gemeinsamen Spirit unter uns europäischen Kolleginnen und Kollegen.

Bei der Arbeit des DSC kommt es darauf an, dass die Nutzenden Vergehen melden. Hast du den Eindruck, die Nutzenden nehmen das Konzept DSC an?
In diesem Jahr sind bei uns bereits knapp 1.900 Beschwerden eingegangen. Die Antwort ist also ja. Aber nicht allen Menschen leuchtet es ein, warum sie sich bei uns melden sollen. Wir können ihnen ja nicht direkt mit ihrem Anliegen helfen. Wir sind kein klassischer Verbraucherservice, der sich um den Einzelfall kümmert. Dennoch brauchen wir die Beschwerden, um Material für Verfahren gegen die Plattformen zu haben. Das müssen wir noch weiter bekannt machen.

Welcher Art Beschwerden haben die Leute? Geht es um gefälschte Sneaker oder um faschistische Umsturzpläne?
Die allermeisten Beschwerden betreffen Account-Sperrungen. Eine Plattform sperrt einen Account, die Nutzende weiß nicht, warum und erreicht auch niemanden beim Kundenservice. Es gibt aber auch Beschwerden, die die so genannten systemischen Risiken betreffen. Eine kommt von 15 Organisationen – Verleger, Rechteverwerter, NGOs – die gegen die Google-KI vorgehen. Es geht darum, dass der neue KI-Überblick, der bei einer Google-Suche an erster Stelle erscheint, dass der Medien ersetzt. Die Menschen klicken nicht mehr auf Links, die zum Beispiel zu Zeitungsartikeln führen. Es brechen Werbeeinnahmen weg, es fehlt das Geld für Journalismus. Die Beschwerde liegt jetzt bei den irischen Kollegen, weil Google in Irland seinen europäischen Sitz hat, und bei der Europäischen Kommission.

Was folgt denn aus dieser Beschwerde?
Die Beschwerdeführer verlangen bestimmte Maßnahmen gegen Google. Der nächste mögliche Schritt ist erstmal ein Auskunftsersuchen an den Konzern. Inzwischen hat eine andere Generaldirektion der Europäischen Kommission sogar ein Wettbewerbsverfahren deswegen eröffnet, also auf einer anderen Rechtsgrundlage als dem DSA.

Ui, da kriegt Google bestimmt Angst…
(lacht) Es ist ein formelles Ersuchen, bestimmte Informationen offenzulegen. Wenn die Kommission ausreichend Grundlage hat, kann sie von Google eine Änderung des Verhaltens verlangen und auch sehr hohe Bußgelder verhängen.

Hier ist ja sehr Grundlegendes betroffen. Niemand kennt die Daten und Quellen, aus denen sich die Aussagen einer KI speisen. Das darf niemals den gleichen Stellenwert haben wie eine wissenschaftliche Statistik oder der Artikel einer großen Tageszeitung. Genau das aber könnten diejenigen glauben, die bei Google auf der Suche nach Informationen sind.
Das ist einer der vielen Aspekte, die in dieser Beschwerde stecken. Es berührt die Frage nach der Qualität der Antworten. Wir wissen, KI halluziniert manchmal.

Manche nennen es lügen…
Gefährlich wird es bei medizinischen Auskünften, auch bei Informationen im Finanzbereich. Dann ist da noch das Urheberrecht. Das betrifft nicht nur die Google-KI-Zusammenfassung, sondern Künstliche Intelligenz im Allgemeinen.

Gleich zu Beginn der DSA-Zuständigkeit der BNetzA gab es Ärger wegen der Zertifizierung eines „Trusted Flaggers“. Was war da los?
Ein „Trusted Flagger“, also vertrauenswürdiger Hinweisgeber, ist meistens eine zivilgesellschaftliche Organisation, die dafür sorgt, dass Meldungen über vermutete illegale Inhalte einen guten Qualitätsstandard haben. Sie sind keine Erfindung des DSA, es gab sie schon vorher. Auf Grundlage des DSA können solche Organisationen eine Zertifizierung beantragen. Die führt dazu, dass deren Meldungen bei den Plattformen bevorzugt bearbeitet werden. Bearbeitet heißt nicht, dass ihnen ungeprüft Folge geleistet werden muss. Die Plattformen müssen in eigener Verantwortung entscheiden, was sie mit der Meldung machen. Der DSA verspricht sich davon mehr Effizienz bei der Identifizierung illegaler Inhalte. Und die Erfahrung hat gezeigt: Behörden und die Polizei sind personell nicht ausreichend ausgestattet, um selbst allen illegalen Inhalten auf Plattformen nachzugehen.
Die öffentliche Diskussion drehte sich vor allem darum, ob es sich bei den Trusted Flaggers um ein Zensurinstrument handelt. Der Vorwurf des Overblockings stand im Raum. Das heißt, dass Plattformen zu viel löschen, vor allem Meinungsäußerungen, die nicht illegal sind. Aus meiner Sicht ist diese Sorge unbegründet. Die Plattformen werden ja nicht aus ihrer Verantwortung entlassen. Der Trusted Flagger hat keine Entscheidungsbefugnis, erst recht keine Löschtaste. Es ist wichtig zu wissen, dass 99 Prozent der Moderationsentscheidungen durch die Plattformen selbst angestoßen werden, also nicht aufgrund von Meldungen. Außerdem können Nutzende, die von Löschungen oder Accountsperren betroffen sind, hiergegen bei der Plattform Beschwerde einlegen sowie eine außergerichtlichen Streitbeilegungsstelle oder ein Zivilgericht anrufen.

Ein Problem für die europäische Plattform-Regulierung ist, dass die meisten der sehr großen Plattformen US-amerikanische Firmen gehören. Wie schlagkräftig sind die Instrumente, die Dir und den anderen DSCs zur Verfügung stehen? Beeindruckt das die Übeltäter?
Davon bin ich überzeugt. X hat eine Niederlassung in Irland. Dort ist der irische DSC zuständig. Und weil X so groß ist und auch die Kategorie „systemische Risiken“ betroffen sein kann, ist auch noch die Europäische Kommission zuständig. Sie hat kürzlich ein Bußgeld von 120 Mio Euro gegen X verhängt – wegen fehlender Transparenz. Es laufen aber noch weitere Verfahren beider gegen X. Bußgelder können bis zu 6% des weltweiten Jahresumsatzes des Konzerns betragen. Wir haben die Erfahrung gemacht, wenn wir in Deutschland ansässige Plattformen über die Verpflichtungen nach dem DSA informieren, dass ganz viele Plattformen sehr schnell ihr Geschäftsgebaren anpassen. Wir selbst haben etwa zwei Dutzend Verfahren eröffnet und eine dreistellige Zahl von Plattformen angeschrieben. Die allermeisten richten sich nach den Regeln.

Würdest du sagen, eure Arbeit ist erfolgreich? Gibt es einen spürbaren Effekt?
Ja, Plattformen ändern ihr Verhalten. Das ist spürbar. Ein Erfolg ist auch, dass wir bereits zwei außergerichtliche Streitbeilegungsstellen zertifiziert haben. Die User Rights GmbH und die Platform Control prüfen im Auftrag der Nutzenden gezielt die Moderationsentscheidungen der Plattformen. User Rights hat dazu kürzlich Beispielentscheidungen auf ihrer Seite veröffentlicht. Das ist ein guter Weg, um konkret den Anliegen der Nutzenden gerecht zu werden.
Das Ziel des DSC ist, die Nutzenden der Online-Plattformen in den Mittelpunkt zu stellen. Und das erreichen wir jetzt schon.

Herzlichen Dank für das Gespräch.

1 Das sind die sogenannten VLOPs und VLOSEs mit monatlich durchschnittlich mindestens 45 Millionen Nutzenden in der EU.

Mastodon