Aufregung um Bundesnetzagentur Was ist die Aufgabe von Trusted Flaggern?
Die Bundesnetzagentur hat die ersten Trusted Flagger zugelassen, die in den Sozialen Netzwerken mögliche illegale Inhalte melden sollen. Einige befürchten dadurch staatliche Zensur - was ist da dran?
"Digitale Stasi", "Grüne Zensur", "modernes Denunziantentum": Die Aufregung in den Sozialen Netzwerken war groß, nachdem die Bundesnetzagentur Anfang Oktober bekannt gegeben hatte, mit der Meldestelle "REspect!" der Stiftung zur Förderung der Jugend in Baden-Württemberg erstmals einen sogenannten Trusted Flagger für Online-Plattformen in Deutschland zugelassen zu haben.
Die Befürchtung: Unter dem Deckmantel der Bekämpfung von Desinformation und Hatespeech könnten die Trusted Flagger auch einfach unliebsame Postings aus den Sozialen Netzwerken entfernen lassen - vor allem vor dem Hintergrund, dass die Bundesnetzagentur vom Grünen-Politiker Klaus Müller geleitet wird. Doch viele Behauptungen über die Trusted Flagger sind mindestens irreführend - und sprechen ihnen deutlich mehr Macht zu, als sie tatsächlich haben.
Was sind Trusted Flagger?
Bei den Trusted Flaggern handelt es sich auf Deutsch um "vertrauenswürdige Hinweisgeber". Die EU-Kommission hat Trusted Flagger im Rahmen des Digital Services Act (DSA) vorgesehen, der in allen EU-Mitgliedsstaaten gilt. Der DSA ist im November 2022 in Kraft getreten und wurde im Mai dieses Jahres durch das sogenannte Digitale-Dienste-Gesetz in deutsches Recht eingebunden. Zugelassen werden Trusted Flagger von den nationalen Koordinatoren des DSA, in Deutschland ist das die Bundesnetzagentur.
Ziel des DSA ist es, dass illegale Inhalte auf Online-Vermittlungsdiensten - dazu gehören unter anderem Soziale Netzwerke wie Facebook oder auch Online-Marktplätze wie Amazon - schneller entfernt werden. Das betrifft beispielsweise Darstellungen sexuellen Missbrauchs an Kindern oder gefälschte Produkte. Auch andere rechtswidrige Inhalte wie Volksverhetzung oder Beleidigungen sollen dadurch schneller von Online-Plattformen verschwinden.
Um das zu erreichen, sollen Trusted Flagger helfen, "potenziell illegale Inhalte zu erkennen und Online-Plattformen zu warnen", wie es auf der Seite der EU-Kommission heißt. Um als Trusted Flagger zugelassen zu werden, muss eine Organisation "besondere Sachkenntnisse und Kompetenzen in der Erkennung, Identifizierung und Meldung rechtswidriger Inhalte" nachweisen können. Zudem muss die Organisation unabhängig von Online-Plattformen sein und eine "sorgfältige, genaue und objektive Übermittlung der Meldungen an die Online-Plattformen" gewährleisten.
"Die Idee dahinter ist, dass die möglichen illegalen Inhalte, die von Trusted Flaggern an die Online-Plattformen gemeldet werden, schon fachkundig geprüft worden sind", sagt Anna Bernzen, Professorin für Recht der Digitalisierung an der Universität Regensburg. Denn da sich die Trusted Flagger regelmäßig mit rechtswidrigen Inhalten beschäftigten, steige die Wahrscheinlichkeit, dass deren Trefferquote bei der Meldung solcher Inhalte höher ist als bei den normalen Nutzerinnen und Nutzern.
Meldungen sollen vorrangig behandelt werden
Die von den Trusted Flaggern gemeldeten Inhalte müssen von den Online-Plattformen laut DSA "vorrangig behandelt und unverzüglich bearbeitet und einer Entscheidung zugeführt werden". Anders als von Nutzenden in den Sozialen Netzwerken zum Teil behauptet, bedeutet das jedoch nicht, dass die Online-Plattformen diese gemeldeten Inhalte auch direkt löschen müssen.
"Die Meldungen von Trusted Flaggern sollen zeitlich bevorzugt gegenüber allen anderen Meldungen behandelt werden, die Entscheidung über den Inhalt obliegt jedoch weiterhin den Online-Plattformen", sagt Bernzen. Rechtlich betrachtet sei ein Trusted Flagger einfach nur ein Verfahrensbeschleuniger.
Ein genauer Rahmen, wie viel Zeit den Online-Plattformen für die Bearbeitung einer Meldung dabei bleibt, sei dabei bewusst nicht bestimmt worden, so Bernzen. "Es kann Fälle geben, wo illegale Inhalte ganz klar als solche zu erkennen sind, beispielsweise bei Darstellungen sexuellen Missbrauchs von Kindern. Und dann gibt es Inhalte, wo das nicht so schnell zu erkennen ist, wo man vielleicht länger prüfen muss." Bei Beleidigungen müsse beispielsweise der Kontext betrachtet werden, eine Prüfung könne daher mehr Zeit in Anspruch nehmen. Daher sei das Gesetz extra flexibel gestaltet.
Hatespeech und Fake News keine Straftatbestände
Kritikerinnen und Kritiker befürchten, dass die Trusted Flagger auch dafür sorgen könnten, dass legale Inhalte von den Online-Plattformen gelöscht werden. Das liegt auch an der Pressemitteilung der Bundesnetzagentur. Dort heißt es: "Plattformen sind verpflichtet, auf Meldungen von Trusted Flaggern sofort zu reagieren. Illegale Inhalte, Hass und Fake News können sehr schnell und ohne bürokratische Hürde entfernt werden." Dabei handelt es sich jedoch weder bei Hatespeech noch beim Verbreiten von Desinformation um Straftatbestände nach deutschem Recht.
Die Vermutung, dass unter diesem Deckmantel einfach unliebsame Postings gemeldet werden, wurde durch diese Pressemitteilung daher befeuert. Auf der Plattform X schrieb Bundesnetzagenturchef Müller, dass sich das "illegal" in dem Satz auch auf Hass und Fake News beziehe, um den Vorwurf auszuräumen. "Plattformen & Dienste behandeln gemeldete Inhalte auf Grundlage der geltenden Gesetze & ihrer Nutzungsbedingungen", so Müller weiter. Die finale Entscheidung liege bei den Gerichten.
Denn Hatespeech oder Fake News sind zwar per se keine Straftaten, können aber je nach Fall Straftatbestände wie zum Beispiel üble Nachrede, Verleumdung, Beleidigung oder Bedrohung erfüllen.
Auf Anfrage präzisiert die Bundesnetzagentur, dass es sich bei den Meldungen von den Trusted Flaggern um mögliche strafbare Inhalte handeln muss. Die Online-Plattformen seien dann verpflichtet, auf Grundlage des jeweils geltenden nationalen Rechts über die gemeldeten Inhalte zu entscheiden. Wenn sie zu dem Schluss kämen, dass es sich um illegale Inhalte handele, ergriffen die Plattformen entsprechende Maßnahmen wie die Löschung des Posts oder die Beschränkung der Sichtbarkeit.
Kein Bußgeld bei anderer Ansicht als Trusted Flagger
Ein weiterer Grund, warum die Trusted Flagger im Netz so kritisch gesehen werden, ist, dass den Online-Plattformen bei Verstößen laut DSA Bußgelder in Höhe von bis zu sechs Prozent des Jahresumsatzes drohen. Einige Userinnen und User sehen daher die Gefahr, dass die Online-Plattformen den Vorschlägen der Trusted Flagger allein deshalb folgen könnten, um mögliche Strafzahlungen zu vermeiden.
Einzelne Fehlentscheidungen über Meldungen der Trusted Flagger führen aber nicht automatisch zu einem Bußgeld, sagt Bernzen. Hinzu kommt: "Theoretisch können die Plattformen alles zurückweisen, was von den Trusted Flaggern kommt, wenn sie nach der Prüfung zum Ergebnis gekommen sind, dass es kein rechtswidriger Inhalt ist." Als Verstoß gegen Artikel 22 Digital Services Act, in dem die Trusted Flagger geregelt sind, würde das nicht gelten. Ein Verstoß wäre es zum Beispiel, wenn eine Online-Plattform nicht die nötigen Strukturen schaffen würde, um die Meldungen der Trusted Flagger prioritär zu behandeln.
Das bestätigt auch die Bundesnetzagentur auf Anfrage. Bei den sehr großen Online-Plattformen mit mehr als 45 Millionen Nutzenden im Monat seien bei Verstößen gegen den DSA zudem der irische Koordinator und die EU-Kommission für etwaige Verfahren zuständig.
Hinzu kommt laut Torsten Kraul, Partner und Leiter des Bereichs Digital Business bei der Kanzlei Noerr, dass die Trusted Flagger jährlich über ihre Arbeit ausführliche Berichte veröffentlichen müssen. "Die Trusted Flagger müssen immer wieder ihre Zuverlässigkeit und ihre Arbeit nachweisen. Und wenn sie ihre Arbeit nicht ordentlich machen, dann ist auch vorgesehen, dass sie diese Stellung wieder verlieren."
Betroffene können Löschung anfechten
Dass auf den Online-Plattformen durchaus auch mal legale Inhalte gelöscht werden, ist laut Kraul und Bernzen nicht auszuschließen. Das sei jedoch auch vor den Trusted Flaggern bereits vorgekommen. Denn zum einen können die Online-Plattformen ohnehin von ihrem virtuellen Hausrecht Gebrauch machen - also Inhalte entfernen, die aus ihrer Sicht nicht auf die Plattform gehören, so Kraul. Diese müssten dabei nicht zwingend illegal sein.
Zum anderen könne es sein, dass ein Gericht letztendlich zu einer anderen Entscheidung als die Plattform kommt, was die Bewertung eines vermeintlich illegalen Inhalts angeht. In dem Fall muss die Plattform die Löschung des Inhalts Rückgängig machen.
Genau dieses Anfechten eines gelöschten Inhalts soll durch den DSA ebenfalls vereinfacht werden, sagt Kraul. "Es wurden extra auch Mechanismen installiert, um einem großflächigen Löschen legaler Inhalte entgegenzuwirken." So müsse für denjenigen, dessen Post gemeldet wurde, dieses ebenso transparent gemacht werden. Zudem brauche er eine Möglichkeit, sich über eine Löschung seines Postings zu beschweren. Dafür wurden extra Schlichtungsstellen eingerichtet, um für Betroffene eine niedrigschwelligere Anlaufstelle zu bieten als den juristischen Weg. Doch auch der Gang zum Gericht bleibt Betroffenen offen.
Algorithmus löscht deutlich mehr Inhalte
YouTube arbeitet bereits schon länger mit Trusted Flaggern zusammen. Anders als beim Trusted-Flagger-Programm beim DSA konzentriert sich YouTube dabei eigenen Angaben zufolge jedoch auf potenzielle Richtlinienverstöße, nicht auf potenziell illegale Inhalte. In den Reports des Unternehmens wird deutlich, wie niedrig der Anteil von Löschungen nach manuellen Meldungen im Vergleich zu automatisierten Löschungen durch ein Filtersystem ist. Mehr als 96 Prozent der 8,2 Millionen Videos, die im ersten Quartal dieses Jahres von YouTube entfernt worden sind, wurden demnach zuerst von den automatischen Systemen markiert.
Nach Ansicht von Kraul wird der Einfluss der Trusted Flagger in der aktuellen Debatte deutlich überschätzt. "Vieles, was derzeit über die Trusted Flagger verbreitet wird, ist eine grobe Vereinfachung. Ziel des DSA ist es, Regelungen und Mechanismen zu schaffen, um die Plattformen zum einen stärker in die Verantwortung zu nehmen, rechtswidrige Inhalte zu löschen. Und zum anderen soll bei der Löschung von Inhalten mehr Transparenz hergestellt und niedrigschwelligere Möglichkeiten angeboten werden, um dagegen vorzugehen."