In Kenia wurde am 14. Dezember vergangenen Jahres eine Klage gegen Meta eingereicht. Das Unternehmen habe in Äthiopien zu wenig getan, um Hassrede zu unterbinden. Meta habe damit den Bürgerkrieg mit angeheizt, der von November 2020 bis November 2022 in dem Land herrschte. Rund 500.000 Menschen verloren in dem Krieg ihr Leben.
Die Klage haben zwei äthiopische Wissenschaftler gemeinsam mit dem Katiba Institute eingereicht, einer NGO mit Sitz in Kenia. Einer der beiden Kläger ist Abrham Meareg Amare. Sein Vater, Meareg Amare Abreha, war ein äthiopischer Chemie-Professor und wurde im November 2021 erschossen. In den Wochen vor seinem Tod waren auf Facebook falsche und hasserfüllte Nachrichten veröffentlicht worden, die sich gegen den Vater richteten. Der zweite Kläger ist Fisseha Tekle. Er war während des Krieges als Rechtsberater bei Amnesty International tätig und hatte aus Äthiopien heraus über die Gewalt im Land berichtet. Tekle war nach eigenen Angaben wiederholt Opfer digitaler Gewalt.
Die Klage wurde bei einem Gericht in der kenianischen Hauptstadt Nairobi eingereicht, weil dort die Inhaltemoderation für die Facebook-Nutzer:innen unter anderem für das Nachbarland Äthiopien erfolgt. Die Kläger fordern Meta auf, einen Fonds zur Entschädigung der Opfer mit einem Volumen von 1,6 Milliarden US-Dollar einzurichten und das Moderationsteam zu vergrößern. Zudem soll das Gericht Meta dazu zwingen, seine Algorithmen anzupassen, damit diese hetzerische und hasserfüllte Inhalte effektiver unterbinden.
Der Bürgerkrieg in Tigraya
In Äthiopien herrschte von November 2020 bis November 2022 ein Krieg zwischen der Regierung und militanten Gruppen aus Tigraya, einer Region im Norden des Landes. Die Tigrayas sind eine demografische Minderheit. Schätzungen zufolge sind rund 3,5 Millionen Menschen infolge der kriegerischen Auseinandersetzungen vertrieben worden.
Der äthiopische Premierminister Abiy Ahmed, der 2019 den Friedensnobelpreis erhielt, gilt als erbitterter Gegner der in der Region regierenden Volksbefreiungsfront Tigrays (TPLF). Bis zu seinem Amtsantritt im Jahr 2018 dominierte die TPLF die Politik Äthiopiens. Über viele Jahre stellte sie den Ministerpräsidenten und besetzte wichtige Posten in Regierung und Militär mit ihren Mitgliedern. Im November 2020 beschuldigte Abiy die tigrischen Truppen, einen Militärstützpunkt der äthiopischen Armee in Tigraya angegriffen zu haben und ordnete eine Offensive an.
Bereits in den Monaten zuvor hatte sich der Konflikt zwischen der Regierung und der TPLF zugespitzt, nachdem diese gegen den Willen der Zentralregierung im September 2020 in der Region Wahlen abgehalten hatte. Obwohl im November vergangenen Jahres beide Seiten ein Friedensabkommen schlossen, sind die Spannungen nach wie vor hoch.
2021 kam ein Bericht der Vereinten Nationen zu dem Schluss, dass beide Seiten „Verstöße gegen die internationalen Menschenrechte, das humanitäre Völkerrecht und das Flüchtlingsrecht begangen haben, von denen einige möglicherweise auf Kriegsverbrechen und Verbrechen gegen die Menschlichkeit hinauslaufen.“
„Facebook ist in Äthiopien eine Waffe“
Die Anschuldigungen der Kläger stehen in engem Zusammenhang mit dem Bürgerkrieg. Meareg Amare Abreha wurde am 3. November 2021 getötet. In den auf Facebook veröffentlichten Postings wurde er fälschlicherweise beschuldigt, mit einer Rebellengruppe in Verbindung zu stehen. Sowohl sein Name als auch sein Foto wurden auf Facebook veröffentlicht. Der Klage zufolge folgten ihm seine mutmaßlichen Mörder wenige Wochen später nach Hause und schossen ihm in den Rücken. Meareg starb infolge der Verletzungen.
Als Mearegs Sohn die Nachrichten auf Facebook sah, wusste er nach eigenen Angaben umgehend, dass dies das „Todesurteil“ für seinen Vater war. „Facebook ist in Äthiopien eine Waffe“, so Abrham Meareg Amare gegenüber dem US-amerikanischen National Public Radio (NPR). „Die Menschen nutzen Facebook als zuverlässige Informationsquelle, weil sie kein Vertrauen in die staatlichen Medien haben.“ Etwas, das auf Facebook gepostet werde, besitze für viele Menschen Gültigkeit.
In einer eidesstattlichen Erklärung versichert Abrham Meareg Amare, sich bereits vor dem Tod seines Vater mehrfach an Facebook gewandt zu haben. Er habe darum gebeten, die Beiträge über seinen Vater zu entfernen. Allerdings habe er über Wochen keine Antwort erhalten. Acht Tage nach dem Tod des Vaters entfernte Facebook eines der gemeldeten Postings, das auf einer Facebook-Seite mit mehr als 50.000 Follower:innen geteilt worden war. Als die Klage eingereicht wurde, waren einige der Beiträge noch immer auf der Plattform zu finden.
Abrham Meareg Amare macht Facebook „persönlich verantwortlich“ für den Tod seines Vaters und sagt: „Für Facebook ist es so, als wären wir Idioten, wir sind Untermenschen […] Unsere Familie ist nicht wichtig, wenn sie Gewinne machen.“ Zusätzlich zu einer Entschädigung aus dem Opferfonds fordern die Kläger eine öffentliche Entschuldigung von Facebook.
Meta schweigt zu der Zahl der eingesetzten Moderator:innen
Ein Sprecher von Facebook betonte gegenüber der Associated Press, dass das Unternehmen strenge Regeln habe, „die festlegen, was auf Facebook und Instagram erlaubt ist und was nicht. Hassrede und Anstiftung zur Gewalt verstoßen gegen diese Regeln und wir investieren stark in Teams und Technologien, die uns dabei helfen, solche Inhalte zu finden und zu entfernen.“ Facebook arbeite daran, die Vorkehrungen zum Aufspüren rechtswidriger Inhalte in Äthiopien auszubauen.
Mercy Mutemi, die Anwältin der Klägerseite, widerspricht diesen Ausführungen: „Facebook lässt nicht nur zu, dass solche Inhalte auf der Plattform veröffentlicht werden, sondern räumt ihnen auch Priorität ein und verdient Geld mit solchen Inhalten. Warum dürfen sie das tun?“ Laut Klageschrift habe Facebook keine Sorgfalt im Umgang mit den gefährlichen Beiträgen walten lassen. Auch verfüge das Unternehmen nicht über ausreichend Personal, um die Inhalte in dem sozialen Netzwerk zu moderieren.
Die Kläger kritisieren, dass Facebooks Inhaltemoderator:innen nur drei der wichtigsten von insgesamt 85 Sprachen abdecken würden, die in Äthiopien gesprochen werden. Die britische Aktivistin Rosa Curling kritisiert außerdem, dass Facebook nicht mehr als 25 Moderator:innen einsetze, um die Inhalte eines Landes mit rund 117 Millionen Einwohner:innen zu betreuen. Curling ist Direktorin von Foxglove, einer im Vereinigten Königreich ansässigen Non-Profit-Organisation, die gegen Menschenrechtsverletzungen durch globale Technologieriesen vorgeht.
Meta hat sich auf Anfrage von netzpolitik.org nicht zu der Anklage und zur Anzahl der von Facebook in Äthiopien eingesetzten Moderator:innen geäußert. Das Unternehmen erklärte indes, dass die Sicherheits- und Integritätsarbeit in Äthiopien „durch das Feedback von lokalen Organisationen der Zivilgesellschaft und internationalen Institutionen geleitet wird. Wir beschäftigen Mitarbeiter mit lokalem Wissen und Fachkenntnissen und entwickeln unsere Fähigkeiten weiter, um verletzende Inhalte in den am meisten gesprochenen Sprachen des Landes, darunter Amharisch, Oromo, Somali und Tigrinya, zu erkennen.“
In einer Erklärung vom 9. November 2021 auf der Website des Unternehmens heißt es zudem, dass es Inhalte in den vier wichtigsten Sprachen des Landes moderieren könne. Außerdem erklärt Meta, dass es eine Technologie einsetze, die „Hassreden in Amharisch und Oromo erkennt, bevor jemand sie Meta meldet“.
Moderation mit zweierlei Maß
Der Fall werfe aus Sicht der Kläger:innen auch ein Schlaglicht darauf, wie unterschiedlich Facebook beziehungsweise der Mutterkonzern Meta die Interessen seiner Nutzer:innen je nach Weltregion schützt. Facebook fördere eine „Kultur der Missachtung von Menschenrechten“, die letztlich zum Mord an einem der Väter der Kläger geführt habe, heißt es in der Klageschrift. Die Kläger fordern, dass Facebook Hassrede und digitale Gewalt in afrikanischen Ländern ebenso behandelt wie das Unternehmen es in den Vereinigten Staaten nach dem Angriff auf das Kapitol am 6. Januar 2021 tut.
Folgt man den „Facebook Papers“, die die Whistleblowerin Frances Haugen im Oktober 2021 in einer Artikel-Serie im „Wall Street Journal“ veröffentlichte, war sich die Unternehmensführung bewusst, dass Facebook die Gewalt im Tigray-Konflikt verschärfen könnte.
Aus den Dokumenten geht hervor, dass der Konflikt das Unternehmen so sehr alarmierte, dass es 2018 unternehmensintern eine Operation aufbaute, um schnell auf politische „Krisenmomente“ reagieren zu können. Auch Metas Aufsichtsgremium, das sogenannte Oversight Board, zeigte sich besorgt. Es empfahl der Unternehmensführung im Jahr 2021, zu überprüfen, wie Facebook und Instagram zur Verbreitung von Inhalten genutzt werden, die das Risiko von Gewalt in Äthiopien erhöhen könnten.
Meta habe nach eigenen Angaben „eine umfassende Strategie umgesetzt, um die Menschen in dem Land auf unserer Plattform zu schützen“. Als Ergebnis dieser Bemühungen habe das Unternehmen zwischen Mai und Oktober 2021 „Maßnahmen gegen mehr als 92.000 Inhalte auf Facebook und Instagram in Äthiopien ergriffen, die gegen unsere Gemeinschaftsstandards zum Verbot von Hassrede verstießen, von denen etwa 98 Prozent entdeckt worden waren, bevor sie gemeldet wurden.“
Es ist nicht das erste Mal, dass Facebook vorgeworfen wird, eine unrühmliche Rolle bei ethnischen Konflikten und kriegerischen Auseinandersetzungen einzunehmen – unter anderem in Myanmar im Jahr 2017 und 2021 in Indien.
Kläger leben im Exil
Beide Kläger haben Äthiopien verlassen. Fisseha Tekle hält sich derzeit in Kenia auf. Wegen der gegen ihn gerichteten Hassnachrichten auf Facebook meidet er bis auf weiteres sein Heimatland, wo seine Familie lebt.
Abrham Meareg Amare ist nach dem Tod seines Vaters mit seiner Familie in die USA geflohen, wo sie einen Asylantrag gestellt haben. Abrham sagt: „Jeder Traum, den wir hatten, ist geplatzt.“
0 Ergänzungen
Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.