Ende dieses Seitenbereichs.

Beginn des Seitenbereichs: Inhalt:

Interview: Governance, Menschenrechte und das Internet – Welche Pflichten Plattformen und Staaten im Kampf gegen Hate Speech haben

Donnerstag, 30.04.2020

Teil 2 des Interviews mit Matthias C. Kettemann zu menschenrechtlichen Aspekten von und staatlichem sowie gerichtlichem Umgang mit Online Hate Speech. Geführt von Gregor Fischer.

Matthias C. Kettemann ist Forschungsprogrammleiter am Leibniz-Institut für Medienforschung und beschäftigt sich u. a. mit Internet- und Völkerrecht, Meinungsäußerungs-Governance und Internet-Politik. Im Rahmen des Projekts NoHate@WebStyria sprach Gregor Fischer (UNI-ETC, Karl-Franzens-Universität Graz) mit ihm über die menschenrechtliche Verantwortung von Intermediären, den staatlichen Umgang mit Hass im Netz und die Judikatur der europäischen Gerichte zu Online Hate Speech:

 

Die FAZ schreibt „Die Algorithmen tun, was sie sonst nie getan haben: Sie unterdrücken Schwachsinn.“ Nun könnte man Hate Speech als qualifizierten Schwachsinn beschreiben – glaubst du, dass die Corona-Krise einen Wandel der Kultur im Internet mit sich bringen könnte?

Nein, nicht hinsichtlich Meinungsäußerungs-Governance. Die Krise wird viele Aspekte unseres Zusammenlebens ändern, aber nicht in der Regulierung von Online-Rede, weil sich hier keine gänzlich neuen Herausforderungen stellen. Was sich getan hat, ist, dass Moderator_innen nicht jeden Tag Inhalte löschen können, weil sie aufgrund der aktuellen Maßnahmen zuhause sind. Daher müssen die großen Plattformen viel stärker auf algorithmisches Meinungsäußerungsmanagement zurückgreifen. Sie wissen aber, dass ihre automatisierten Tools bei der Erkennung semantischer Unterschiede zwischen beispielsweise Humor und Hate Speech oder erlaubter Kritik und Beleidigung viel schlechter sind als Menschen. Deswegen kommt es zu vielen falsch gelöschten Inhalten und es bleiben andere Inhalte, die illegal sind, online. Das erkennen die Plattformen auch an: Twitter hat angekündigt, dass alle derzeit gelöschten Inhalte nicht als Strikes gegen den Account gewertet werden (Anm.: Bei einer gewissen Anzahl von Strikes kann ein Account gesperrt oder gelöscht werden).

Welche Spannungsverhältnisse ergeben sich derzeit zwischen den Menschenrechten und der Normsetzung durch private Kommunikationsplattformen (Intermediäre) im Internet?

Wir sehen momentan zwei zentrale Herausforderungen: Erstens müssen wir uns viel mehr damit beschäftigen, wie in privaten Rechtsräumen Regeln gesetzt werden. Es wurde lange hingenommen, dass das Hausrecht privater Unternehmen unsere Onlinekommunikation strukturiert und darüber entscheidet, welche Inhalte online gehen und bleiben dürfen bzw. welche gelöscht werden, und darüber, ob User_innen gesperrt werden. Anbieter_innen von Internetplattformen, auch Intermediäre genannt, beginnen zu sehen, dass sie sozial hoch relevante Rollen einnehmen. Sie sind in ein Legitimationsdefizit geraten, weshalb beispielsweise bei Facebook Teams von Mitarbeiter_innen damit beschäftigt sind, neue, bessere Kommunikationsregeln aufzustellen und ein „Oversight Board“ als internes Höchstgericht ins Leben gerufen wurde. Auch bei TikTok wurde zuletzt ein Beirat für interne Moderationsregeln bestellt. Diese und andere Initiativen spiegeln sich in der Realität mit großen Verzögerungen wider, weshalb manche immer noch den Eindruck gewinnen, dass in privaten Onlineräumen generell arbiträr gelöscht wird. Das liegt einerseits an den Unschärfen der algorithmischen Löschung und andererseits an der Vielfalt und Menge von Löschentscheidungen, die täglich getroffen werden müssen. Bestimmte Gruppen instrumentalisieren diese Löschungen und wittern „Weltverschwörungen.“ Im Wesentlichen löschen Plattformen jedoch nicht ideologisch, sondern agieren teilweise mit einer Art Airbag-Politik – sie löschen zu viel, damit sie ganz sicher nicht in der Illegalität landen. Andererseits bleiben aber viele strafrechtlich relevante Meldungen stehen, weil sie Traffic bringen und damit den Diskurs für die finanzielle Nutzbarkeit durch die Anbieter_innen optimieren.

Zweitens durchdringt das Recht diese zunehmend wichtigen privaten Räume immer mehr, wodurch auch staatliche Standards direkter anwendbar sind und Grundrechte unmittelbar eine Drittwirkung entfalten können. Das deutsche Netzwerkdurchsetzungsgesetz (NetzDG) sowie die Fälle Dritter Weg in Deutschland bzw. CasaPound in Italien zeigen, dass „Wir löschen, was wir wollen, weil es in den Allgemeinen Geschäftsbedingungen steht!“ in Europa keine Argumentationslinie ist, die rechtlich Bestand hat – große Plattformen sind vielmehr Ermöglicher der öffentlichen Kommunikation und übernehmen somit zumindest in Teilen staatsähnliche Funktionen. In den USA geht die Judikatur zu Section 230 des Communication Decency Act (CDA) in die entgegengesetzte Richtung – hier haben die privatrechtlichen Regeln der Plattformen weiterhin Vorrang. Aus dem asiatischen Raum auf den Markt drängende Plattformen wie TikTok wiederum sind noch Black Boxes, wir wissen nur durch Leaks über ihre Moderationstechniken Bescheid, die nicht sehr vielversprechend sind. Menschen mit Behinderung sollen etwa nicht prominent auf der Plattform vorkommen. Erst in letzte Zeit ändern sich das ein bisschen, weil auch TikTok erkannt hat, das es sich öffnen muss. Zu bedenken ist hier auch, dass Facebook im europäischen Raum wohl schon seine maximale Durchdringung erreicht hat, weniger offene Plattformen jedoch gerade beim jüngeren Publikum rasant wachsen.

Die Fälle Künast, Maurer und Zadić haben in letzter Zeit große Diskussionen ausgelöst. Sind die Teams von Facebook mittlerweile schon besser aufgestellt als manche Staaten, menschenrechtliche Probleme im Internet zu lösen? Ist der Staat gerüstet dafür, diesen Dialog zu führen?

Ja, ist er. „Der Staat kann im Internet nicht mehr für Recht sorgen“ ist ein Diskurs, dem wir entschieden entgegentreten sollten. Die Fälle Künast und Maurer sind repräsentativ für problematische Diskurse, aber führten bei Gerichten – zumindest zunächst –  zu Fehlurteilen, die gepusht werden, um diesen Diskurs „im Internet gilt kein Recht“ zu unterstützen. Dabei wurden beide Entscheidungen teils vom selben Gericht, teils von der nächsten Instanz heftig korrigiert. Fehlurteile wird es immer geben aber klar ist: Wir brauchen mehr forensisch ausgebildete Polizist_innen, mehr Staatsanwält_innen, die Inhalte verfolgen, mehr Richter_innen, die mit den Kommunikationslogiken und -praxen erfahren sind. Es gibt z. B. hunderte Urteile zu Holocaustleugnung aus dem Offlinekontext, die man ohne Probleme auf das Internet umlegen könnte. Die Kompetenzen der Unternehmen hinsichtlich Löschentscheidungen wiederum sind ganz anders gelagert. Klar, sie können auf gute Leute zurückgreifen, aber sie haben eine ganz andere Interessenslage. Spannend wird, welchen Einfluss das aus Expert_innen bestehende Facebook Oversight Board (Anm.: Facebook-eigene, gerichtsähnliche oberste Instanz für Löschentscheidungen) haben wird.

Wenn Facebook (verklausuliert) über Menschenrechte spricht und ein eigenes „Gericht“ bekommt – kann dieses Gericht dann schon auf vorheriges, Facebook-internes „Case Law“ zurückgreifen?

Das ist eine gute Frage. Jeden Tag gibt es abertausende Einzelentscheidungen, aber es gibt keine zentrale strukturierte Datenbank dafür. Was es gibt, sind Analysen der Führungsebene. Von den unteren Ebenen der Moderator_innen und Teamleader_innen kommen eskalierte Meldungen zu Facebook-Mitarbeiter_innen. Das sind dann z. B. Morddrohungen gegenüber Politiker_innen. Facebooks Angestellte schauen sich aber vor allem Strukturen an, z. B. ob Löschungen von unter dem Punkt „Gewaltdarstellung“ eingeordneten Inhalten von den User_innen mehr als sonst beeinsprucht werden. Erkennen sie das, deutet das darauf hin, dass diese Löschungen nicht als legitim wahrgenommen werden oder dass die Moderator_innen bei der Umsetzung der Regeln Probleme haben. Hält dieser Zustand an, werden Regeländerungen angedacht. Nach langer Vorarbeit in verschiedenen Gruppen und Gesprächen mit externen Stakeholdern wird dann schlussendlich im Product Policy Forum, einem internen Entscheidungsgremium, entschieden, wie die interne Rechtslage reformiert wird. Also: Nein, es gibt noch keine echte Datenbank, die muss das Oversight Board erst entwickeln, das ist auch seine Aufgabe. Es hängt auch viel davon ab, wer im Oversight Board sitzen wird. Eigentlich hätten die Mitglieder schon im Februar bekannt gegeben werden sollen, aber die COVID-19-Krise hat hier die Prioritäten in Richtung Kampf gegen Desinformation verschoben.

In deiner Forschung beschäftigst du dich mit der Legitimität der Regeln von Facebook – ist es ausreichend, was die Plattform in diesem Bereich tut?

Wie bei Staaten, die schon aufgrund ihrer Verfassungen grundsätzlich einen Legitimitätsvorteil haben, ist auch bei Plattformen entscheidend, welche Inputs in die Normerzeugungsprozesse hineinfließen. Die Arbeitsthese lautet: Je mehr verschiedene Akteur_innen ihre Inputs geben können, desto legitimer ist die erzeugte Norm. Soziale Plattformen, die darauf Wert legen, beteiligen Stakeholder_innen und tragen das auch nach außen. Bei Facebook setzt man auch auf die Throughput-Legitimität, also darauf, dass im Prozess möglichst viele, gut informierte Stakeholder_innen beteiligt sind. Konsultiert werden u. a. Mitarbeiter_innen bekannter NGOs, die große Erfahrung im Bereich der Menschenrechte mitbringen. Deren Namen werden jedoch nicht öffentlich genannt. Facebook selbst würde das wohl transparent machen, aber die Stakeholder_innen wollen nicht als Partner_innen dieser Prozesse wahrgenommen werden, weil sie dann auch in der Verantwortung für die Ergebnisse stünden. Facebooks Normsetzung kann übrigens eingesehen werden, die Folien der zweiwöchentlichen „Parlamentssitzungen“ des Product Policy Forum sind seit November 2018 online verfügbar. Mit diesem Vorgehen nimmt man einige der Charakteristika staatlichen Normbildung auf. Das findet sich in dieser Konsequenz bei keinem anderen Unternehmen, vor allem nicht bei den neuen Unternehmen aus dem asiatischen Raum, die eine andere Normenentwicklungskultur haben. Sie empfinden noch keinen Öffnungsdruck, weil sie nicht über lange Jahre kritisiert wurden. TikTok hat jetzt mit seinem Beirat für Inhaltsmoderation einen ersten Schritt in Richtung Öffnung unternommen.

Einzelne Nutzer_innen beteiligt Facebook aber nicht an der Normenentwicklung. Der einzige Versuch bisher von Abstimmungen über Moderationsregeln ist am mangelnden Partizipationsinteresse gescheitert. Wie kann Demokratie im Netz in Zukunft aussehen?

Die lebendige, wehrhafte Demokratie im digitalen Zeitalter zu gewährleisten, ist eine große gesellschaftliche Aufgabe, vielleicht die wichtigste unserer Zeit. Momentan ermöglicht es uns die COVID-19-Krise zu sehen, wer wirklich jene Akteur_innen sind, die in gesellschaftlich wichtigen Situationen entscheiden. Was machen denn jetzt genau Twitter, Facebook und Google? Sie managen Informationsressourcen, treten gegen mehr oder weniger effektiv gegen Desinformationen auf, bringen kleine offizielle Hinweise zu COVID-19 und zu staatlichen Informationsquellen. Aber wer trifft jetzt die großen Entscheidungen, die die Gesellschaft prägen? Das sind die Staaten. Im Blick zurück wird uns diese Krise gezeigt haben, dass es fundamentale Unterschiede gibt zwischen Unternehmen und Staaten. Das hilft uns, das Gesamtbild zurechtzurücken. Wir sind da zu sehr hineingerutscht in den Diskurs der staatsähnlichen Rolle dieser Unternehmen. Diese Debatte wird durch die Krise einen ordentlichen Dämpfer bekommen.

Es gibt ja Kolleg_innen, die eine „Konstitutionalisierung“ des Internets sehen.

Das ist differenziert zu sehen, je nachdem welche Bedeutung man dem Begriff der Verfassung zuerkennen möchte. Was aber auf jeden Fall stattfindet, ist die immer stärkere Durchdringung digitaler Räume durch das Recht – ein Phänomen, das wir anerkennen und verstehen müssen und das manche Forscher_innen begrifflich als „Konstitutionalisierung“ fassen. Eine Verrechtlichung findet statt, ja, ebenso wie eine verstärkte Anwendung öffentlichen Rechts und der Grundrechte in privaten Räumen. Mir erscheint es aber mindestens genauso wichtig über die internationale Dimension der Internetregulierung zu sprechen. Sinnvoll wäre es, die sich verdichtenden staatlichen Kooperationspflichten hinsichtlich der Sicherung der Infrastruktur des Internets und die Regeln über die Verteilung der Verantwortung für die Tiefseekabel, die kustodiale Verantwortung für Internetknotenpunkte und die Cybersicherheit vertraglich festzuhalten. Hier sehe ich die größte Chance in einem Rahmenvertrag ohne durchführende internationale Organisation, ähnlich dem Pariser Klimaschutzabkommen.

Zur Klärung der Haftung von Intermediären: Wie ist die Spruchpraxis des Europäischen Gerichtshofs für Menschenrechte (EGMR) zu beurteilen?

Sie wird immer vernünftiger. Die Einführung der Pflicht zur sofortigen Löschung von klar rechtswidrigen Inhalten in Delfi gegen Estland war ein Zeitenbruch. Man ging bis dorthin davon aus, dass Intermediäre erst nach einer Verständigung in notice-and-takedown-Verfahren verpflichtet sind, Inhalte zu löschen. Unternehmen hatten aber ohnedies schon bestimmte automatisierte Filtertechniken angewandt, um bestimmte Inhaltsgruppen offline zu halten, etwa im Bereich der sexuellen Ausbeutung von Kindern. Im Endeffekt haben Delfi und die präzisierenden Nachfolgeurteile wie MTE und Index gegen Ungarn und Pihl gegen Schweden weniger bewirkt, als manche befürchtet hatten, die darin ein Problem für das Internet an sich gesehen hatten. Der Bereich, der problematisch bleibt: diese noch nicht ganz klar rechtswidrige, aber schon Hate Speech nahestehende, etwa misogyne oder migrant_innenfeindliche Hetze ohne unmittelbare Gewaltandrohung, der fällt ja raus aus der „klaren“ Rechtswidrigkeit.

Der Fall Glawischnig gegen Facebook Ireland Ltd hat ja ähnliche Reaktionen hervorgerufen wie damals Delfi, man sorgte sich in vielen Kommentaren um die Zukunft des Internets.

Das Urteil steht den lange andauernden, in Scarlet Extended gegen SABAM bestätigten Verboten gegenüber Staaten, Uploadfilter vorrätig zu halten, gegenüber – ein rechtlich spannendes, jedoch gesellschaftlich nicht besonders wirksam werdendes Problem. Aber: Die Unternehmen filtern ohnehin schon. Jedes Unternehmen hat automatisierte Uploadfilter für gewisse Inhalte wie Genozidleugnung, Terrorismusförderung, sexuelle Ausbeutung von Kindern. Schwierig wird es, wenn der Gerichtshof der Europäischen Union (EuGH) in Glawischnig nonchalant sagt, dass auch ähnliche Statements von derselben Person und inhaltsgleiche von anderen Autor_innen gelöscht werden müssen. Das führt dazu, dass aufgrund der Unschärfen bei der automatisierten Umsetzung dieser Entscheidungen auch andere Inhalte mit gelöscht werden. Das ist das Problem: Der EuGH irrlichtert ein wenig und entwickelt zu wenig Struktur in seiner internetbezogenen Judikatur zur Meinungsäußerungsfreiheit.

In einem deiner Projekte, das ihr zusammen mit einer Tageszeitung und einer Frage-und-Antwort-Plattform durchführt, werden gelöschte Postings in fünf Hauptkategorien eingeteilt, von völkerrechtlich verboten bis vollkommen legal. Das ist sicherlich komplexe Subsumtionsarbeit?

Ja, allein die Kategorie „illegal nach nationalem Strafrecht“ hat 120 Unterkategorien. Es ist sehr spannend zu sehen, welche Äußerungen in einem vergleichsweise ruhigen Forum vorkommen. Diese Postings rechtlich einzuordnen und in Kategorien zu übersetzen ist sehr komplex. Wir wollen einfach belastbare Zahlen dazu entwickeln, wie viele als illegal gelöschten Inhalte wirklich illegal sind. Selbst von den prima facie liberalen Moderator_innen werden Dinge gelöscht, bei denen man gar nicht nachvollziehen kann, da hilft nicht einmal der Kontext. Wenn selbst eine größere Tageszeitung das macht, die eine phänomenal gute Online-Community hat, da will man nicht wissen, was sich anderswo tut.

In der Menschenrechtsstadt Graz, deiner universitären Heimat, lebend muss ich fragen: Welche Empfehlungen für die Eindämmung von Hass im Netz würdest du Entscheidungsträger_innen auf lokaler und regionaler Ebene ans Herz legen?

Bewusstseinsbildung wirkt auf lokaler Ebene am besten – wenn NGOs und betroffene Personen etwa gemeinsam mit Bürgermeister_innen oder anderen Entscheidungsträger_innen auf das Thema aufmerksam machen. Mit persönlichen Geschichten kann man das abstrakte Phänomen Online Hate Speech besser ins Bewusstsein rufen. Was macht Hate Speech mit den Menschen? Wie stark betrifft es sie, wie grenzt sie das aus, wie führt das zu Silencing? Gerade als Bürgermeister_in hat man eine tolle Plattform, die man nützen kann, um wichtige Messages zu boosten. Aber auch Kooperationen mit den Staatsanwaltschaften, wie das Projekt „Verfolgen statt löschen“ in Nordrhein-Westfalen zeitigen sinnvolle Ergebnisse.

Expert_innen zufolge kann politische Kommunikation in ihrem Stil, in ihren Inhalten Hate Speech auch befördern bzw. vermeiden – stimmst du dem zu?

Ja. Die Politik kann den Ton setzen. Das sieht man in den USA, in Ansätzen sieht man das in Deutschland mit der AfD, in Österreich mit der FPÖ. Man muss aufpassen, dass man nicht Begriffe aus Diskursen übernimmt, in denen diese Begriffe bewusst gesetzt werden. Nur ein Beispiel: Metaphern wie „Flüchtlingsströme“, die ein Land „überschwemmen“ sind dehumanisierend und verweisen auf ganz problematische Bilder. Da kann die Politik sehr viel beitragen, und sie kann und muss aktiv auftreten gegen Desinformation und Hate Speech. Hier sind klare gesellschaftliche Brandmauern wichtig. Der Normalisierung menschenfeindlicher Diskurse ist entschieden entgegenzutreten.

Vielen Dank für das Gespräch, lieber Matthias, und alles Gute für deine weitere Forschung!

Vielen Dank.

Ende dieses Seitenbereichs.

Beginn des Seitenbereichs: Zusatzinformationen:


Ende dieses Seitenbereichs.