Blog Ein Jahr Facebook Oversight Board

Ein Jahr Facebook Oversight Board

Als Facebooks eigenen Supreme Court, also einen eigenen Obersten Gerichtshof, kündigte Mark Zuckerberg in einem Interview 2018 die Einführung des Facebook Oversight Boards an. Dieses hat am 22. Oktober 2020 seine Arbeit aufgenommen, und dieser Blogbeitrag gibt einen Überblick über die Aufgaben des Gremiums und seine Arbeit im ersten Jahr.


Facebooks Umgang mit den auf seiner Plattform veröffentlichten Inhalten wird, insbesondere vor dem Hintergrund der Verbreitung sogenannter Fake News oder von Hatespeech, in der Wissenschaft und in der breiten Öffentlichkeit schon länger diskutiert. Nachdem der deutsche Gesetzgeber mit dem Netzwerkdurchsetzungsgesetz (NetzDG) tätig geworden ist und auf europäischer Ebene im Rahmen des Digital Services Act (DSA) ähnliche Vorschriften diskutiert werden, hat auch Facebook gehandelt. Mit dem Facebook Oversight Board (FOB) hat das US-amerikanische Unternehmen ein Gremium geschaffen, das als unabhängige Kontrollinstanz die aktuelle Entscheidungspraxis im Umgang mit den veröffentlichten Inhalten überprüfen und Verbesserungsvorschläge unterbreiten soll. Nach seiner Ankündigung 2018 wurde die Entwicklung des FOBs von Expertinnen und Experten aus 88 Ländern begleitet. Dabei wurden rund 1.200 öffentliche Einsendungen mit Vorschlägen zur Gestaltung des FOBs berücksichtigt, bevor im September 2019 die endgültige Satzung des Gremiums veröffentlicht wurde. Obwohl es sich noch im Aufbau befindet, hat das FOB am 22. Oktober 2020 offiziell seine Arbeit aufgenommen und am 28. Januar 2021 seine ersten Entscheidungen verkündet.

Entwicklung und Aufgaben des Facebook Oversight Boards

Im ersten Jahr seiner Arbeit hat sich das FOB zwar von elf auf 19 Mitglieder vergrößert, es bleibt aber immer noch deutlich unter der in der Satzung angestrebten Größe von 40 Mitgliedern. Diese sollen breite Kenntnisse im Umgang mit der Moderation von Onlineinhalten aufweisen und mit digitalen Inhalten vertraut sein. Das in der Satzung formulierte Ziel, Mitglieder in das Gremium aufzunehmen, die ein „breites Spektrum an Kenntnissen, Kompetenzen, Vielfalt und Fachwissen besitzen und nachweisen“ und die „Vielfalt der Facebook-Community“ widerspiegeln, wurde jedoch erfüllt. So verteilen sich die Mitglieder auf 16 unterschiedliche Länder, wobei die Vereinigten Staaten mit vier Mitgliedern als einziger Herkunftsstaat mehrfach repräsentiert sind. Die Mitgliedsstaaten der Europäischen Union sind mit insgesamt drei Mitgliedern aus Dänemark, Ungarn und Frankreich vertreten. Von den neun Frauen und zehn Männern im Gremium haben nach eigenen Angaben des FOBs  zwar 14 Mitglieder einen juristischen Hintergrund, es sind aber auch Journalistinnen und Journalisten, Medienwissenschaftlerinnen und Medienwissenschaftler, Politikerinnen und Politiker sowie Aktivistinnen und Aktivisten vertreten.

Kernaufgabe des FOBs ist es, als zweite Instanz Entscheidungen über Inhaltsentscheidungen zu treffen, entweder nachdem es von Nutzerinnen oder Nutzern im Rahmen einer Beschwerde angerufen wurde oder wenn Facebook selbst dem Gremium Fälle vorlegt. Dabei wird überprüft, ob die Entscheidung, die während des Moderationsprozesses von den Facebook-Mitarbeiterinnen und -Mitarbeitern getroffen wurde, mit den Inhaltsrichtlinien und Werten von Facebook übereinstimmt. Außerdem kann das Gremium Stellungnahmen abgeben, die Empfehlungen bezüglich der Inhaltsrichtlinien von Facebook beinhalten. Das FOB konzentriert sich dabei auf den äußerungsrechtlichen Bereich. Andere sensible und viel diskutierte Bereiche, wie zum Beispiel Facebooks News Feed Ranking oder politische Werbung, fallen nicht in die Kompetenzen des FOBs.

Blickt man auf die Statistiken des ersten Arbeitsjahres, so wurden 21 Fälle angenommen und 18 entschieden. Ein Fall mit deutscher Beteiligung ist in diesem Jahr jedoch noch nicht vor dem FOB verhandelt worden. In elf dieser Fälle wurde die ursprüngliche Entscheidung von Facebook durch das FOB nicht aufrechterhalten. Vier Fälle wurden dem FOB von Facebook selbst vorgelegt, darunter auch die Entscheidung, ob die Sperrung des Accounts (sogenanntes Deplattforming) des ehemaligen US-amerikanischen Präsidenten Donald Trump nach den Gemeinschaftsstandards von Facebook zulässig war. Die übrigen 17 Fälle gehen auf Beschwerden von Nutzerinnen und Nutzern zurück. Inhaltlich ging es bei einem Großteil der Entscheidungen um Hatespeech, aber das FOB beschäftigte sich zum Beispiel auch mit Fällen, in denen zu Gewalt angestiftet wurde oder in denen es um den versuchten Verkauf von „reglementierten Gütern“ wie zum Beispiel Drogen ging.

Standards des Facebook Oversight Boards

Die Entscheidung des FOBs über die Vereinbarkeit des Deplattforming von Donald Trump mit den Facebook-Regeln hat mit Sicherheit die breiteste mediale Aufmerksamkeit gefunden. Und das, obwohl es sich hierbei um einen atypischen Fall handelte, den Facebook nicht zwingend dem FOB hätte vorlegen müssen. Neben diesem prominenten Fall hat das FOB allerdings auch eine Reihe weiterer spannender Fälle entschieden – so zum Beispiel am 28. Januar 2021 einen Fall, der auch aus deutscher Sicht interessant ist. Im Vorfeld der US-amerikanischen Präsidentschaftswahl teilte ein Nutzer ein Zitat, das dem NS-Propagandaminister Joseph Goebbels zugeschrieben wird. Das Zitat beinhaltete die These, dass es zielführender sei, an die Emotionen und Instinkte der Wähler zu appellieren als an ihren Intellekt, außerdem müsse die Wahrheit der Taktik und Psychologie untergeordnet werden. Während der Nutzer mit dem Zitat in Wahlkampfzeiten einen Vergleich zur Präsidentschaft von Donald Trump herstellen wollte, löschte Facebook den Beitrag mit Verweis auf seine Richtlinien über gefährliche Personen und Organisationen. Facebook begründete die Entscheidung damit, der Nutzer habe nicht ausreichend klargestellt, dass er Joseph Goebbels nicht unterstütze. Das FOB teilte diese Auffassung jedoch nicht und entschied, dass der Beitrag wiederhergestellt werden müsse. Dies begründete das FOB vor allem mit der mangelnden Vereinbarkeit der Entscheidung von Facebook mit internationalen Menschenrechtsstandards. Es kritisierte die Unklarheit und Unbestimmtheit der Facebook-Regeln und stellte fest, dass die Entscheidung aufgrund der fehlenden Kontextsensitivität unverhältnismäßig sei.

Die Berufung auf internationale Menschenrechtsstandards, als Ergänzung oder sogar anstelle von Facebooks eigenen Richtlinien und Werten, ist eine Tendenz, die nicht nur diese Entscheidung prägt, sondern sich auch in anderen Entscheidungen des FOBs wiederfindet. Die Einbeziehung dieser Standards könnte ein wichtiger Schritt sein, um in Zukunft die Emanzipation des Gremiums von Facebook zu verstärken und seine Unabhängigkeit zu sichern. Außerdem könnte sie dem FOB helfen, global einheitliche Standards dafür zu entwickeln, was auf Facebook kommuniziert werden darf und was nicht, falls sich eine solche globale Lösung überhaupt finden lässt.

Ausblick

Schon seit Mark Zuckerbergs Ankündigung, das FOB ins Leben rufen zu wollen, schlägt dem Projekt Kritik entgegen. Vor allem werden Vorwürfe erhoben, es handele sich nur um ein Ablenkungsmanöver, um eine weitergehende Regulierung zu vermeiden, wie sie zum Beispiel durch den DSA anstehen könnte. Auch wird argumentiert, dass die Unabhängigkeit und die Einflussmöglichkeit, die das FOB auf Facebook habe, zu schwach sei, um zu nachhaltigen Änderungen zu führen. Insbesondere, weil wichtige Themen, wie zum Beispiel der Einsatz von Algorithmen, nicht vom Mandat des FOBs erfasst seien. Außerdem bleibe fraglich, ob Facebook alle Entscheidungen des FOBs umsetzen werde. Es bestehe die Gefahr, dass Facebook unliebsame Entscheidungen des FOBs ignoriere oder das ganze Gremium wieder abschaffe. Mark Zuckerberg stellt gewissermaßen die verfassunggebende Gewalt hinter dem FOB dar, sodass die zukünftige Entwicklung spannend zu beobachten bleibt.

Trotz der negativen Kritikpunkte darf allerdings nicht vergessen werden, dass mit der Einführung des FOBs die Nutzerinnen und Nutzer erstmals ein internes Rechtsmittel in der Hand haben, mit dem sie gegen Entscheidungen von Facebook vorgehen können, ohne eine Auseinandersetzung vor den staatlichen Gerichten suchen zu müssen. Dies zeigt sich auch darin, dass der Großteil der vom FOB entschiedenen Fälle tatsächlich solche Beschwerden waren und nicht nur Fälle, die ihm von Facebook im eigenen Interesse vorgelegt wurden. Auch dass das FOB in vielen Fällen Facebooks ursprüngliche Entscheidung „kippt“, ist ein gutes Zeichen für die Nutzerinnen und Nutzer. Insofern stellt die Einführung des FOBs in jedem Fall einen Fortschritt gegenüber dem undurchsichtigen Status quo dar, der ebenfalls dazu bewegen kann, die weitere Entwicklung des FOBs zuversichtlich zu betrachten. Auch dass sich das FOB nach den Enthüllungen der letzten Wochen dazu entschieden hat, sich mit der Whistleblowerin Frances Haugen zu treffen, ist ein positives Zeichen. Das Gremium will ihre Erfahrungen und Einblicke nutzen, um stärkere Impulse hinsichtlich Transparenz und Verantwortlichkeit zu setzen. Wichtig ist hierbei jedoch zu bedenken, dass das FOB als interner Compliance-Mechanismus den Schutz der Rechte der Nutzerinnen und Nutzer zwar verbessern, den staatlichen Rechtsschutz aber nur ergänzen und keinesfalls ersetzen kann.

Die vom bidt veröffentlichten Blogbeiträge geben die Ansichten der Autorinnen und Autoren wieder; sie spiegeln nicht die Haltung des Instituts als Ganzes wider.