Ein großes Publikum und Fotos als wichtigster Inhalt: Instagram bietet für Tyrannen so ziemlich alle Zutaten, um andere online zu drangsalieren und bloßzustellen. Bislang fiel die Arbeit und die Verantwortung, sich gegen solche Angriffe zu wehren, vor allem den Betroffenen selbst zu. Sie mussten übergriffige Accounts melden und dann warten, bis Instagram gegen diese vorging.
Jetzt hat die Plattform zwei neue Werkzeuge angekündigt, um das so genannte Cybermobbing auf der Plattform einzudämmen. Das erste ist eine Art Warnung an potenzielle Täter:innen: Wenn diese einen Kommentar posten, der von Instagrams Mobbing-Algorithmen als übergriffig erkannt wird, werden sie aufgefordert, ihre Worte zu überdenken. Es gehe darum, Nutzer zu stupsen, ohne sie vom Posten abzuhalten, sagte Produktdesigner Francesco Fogu dazu gegenüber Time. Im Testbetrieb habe man festgestellt, dass einige Nutzer:innen dadurch ihre verletzenden Kommentare zurückziehen oder umformulieren, schreibt Instagram-Chef Adam Mosseri.
Das zweite Werkzeug soll unter dem Namen „Restrict“ Betroffenen mehr Möglichkeiten in die Hand geben, sich von ihren Online-Bullys abzugrenzen. So können sie Personen, deren Interaktionen sie einmal eingeschränkt haben, weitgehend aus ihrem Gesichtsfeld verbannen – ohne dass der oder die Täter:in dies mitbekommt. Letzteres ist entscheidend, denn viele Betroffene fürchten zurecht eine Eskalation der Situation, wenn sie sich gegen das Mobbing wehren.
Bloß nicht blocken
Das Feature sei entstanden, nachdem Recherchen von Instagram ergaben, dass Teenager sich ausgesprochen ungerne gegenseitig blocken – vor allem, wenn es um Personen geht, die sie etwa in der Schule täglich treffen. Wer einen anderen blockiert, sorgt damit nicht nur für eine mögliche Eskalation, sondern kann auch nicht mehr überblicken, was die Person postet. Dies ist etwa eine verbreitete Kritik an Twitters Block-Funktion, mit der man üble Mentions und Nachrichten zwar für sich selbst ausblenden kann – alle Welt sie aber weiterhin zu sehen bekommt. Gerade in Fällen von Verleumdung ist das für Betroffene häufig keine Option.
Instagram verspricht stattdessen den Nutzer:innen das Steuer in die Hand zu geben. Sie sollen in Zukunft darüber entscheiden können, ob sie einen Kommentar unter einem ihrer Posts freischalten, löschen oder einfach ignorieren, wodurch dieser für alle außer die Kommentatorin unsichtbar bleibt. Gleiches gilt für Direktnachrichten. Anders als bei einem blockierten Account erfährt der Bully dabei nicht, dass seine Interaktionen eingeschränkt worden sind.
Das Ende der Wohlfühloase
Instagram bemüht sich seit einiger Zeit schon, Mobbing auf der Plattform in den Griff zu bekommen. Das soziale Netzwerk ist für den Mutterkonzern Facebook wichtig, um ein jüngeres Publikum zu erreichen, das Facebook teils nur noch als Eltern-Sammelbecken wahrnimmt. Lange Zeit galt Instagram als „Wohlfühloase“ unter sozialen Medien, der Ort, wo man sich vom rauen Umgangston und Hass ausruhen konnte.
Vielleicht stimmte das nie, in jedem Fall fällt diese Illusion, seit die Nutzerzahlen stark gewachsen sind und damit auch die Geschichten über brutales Onlinemobbing sich häufen, vor allem unter Jugendlichen. Zuletzt hatte der Selbstmord des Britischen Teenagers Molly Russel den politischen Druck erhöht.
In den USA geben laut einer aktuellen Umfrage des Pew Research Center 59 Prozent der befragten Teenager an schon mal im Netz gemobbt worden zu sein. Fast die Hälfte der Betroffenen sagten in einer anderen Umfrage, dass sie spezifisch auf Instagram gemobbt wurden.
Wie viele Jugendliche in Deutschland betroffen sind, ist schwer zu sagen. In der aktuellen JIM-Studie sagen acht Prozent der Jugendlichen, sie seien selbst schon mal „per Handy oder im Internet fertig gemacht“ worden. Von jedem Fünften der Jugendlichen wurden schon einmal falsche oder beleidigende Sachen per Handy oder im Internet verbreitet.
Können Maschinen Mobbing erkennen?
Im Hintergrund setzt Instagram bereits seit vergangenem Jahr Algorithmen ein, um Mobbing aufzudecken. Im Oktober 2018 kündigte die Plattform an, diese Suche von Text auch auf Bilder und Videos auszuweiten. Seitdem trainiert ein Team von Ingenieuren drei verschiedene Suchalgorithmen anhand von Referenzdaten, die menschliche Moderatoren vorsortiert haben. Sie sollen anhand von Mustern ausmachen, welche Inhalte problematisch sind und diese automatisch Content-Moderatoren vorlegen. Wie hoch die Fehlerquote dieser Algorithmen derzeit ist, gibt Instagram nicht bekannt, ebenso wenig die Zahl der Mitarbeiter, die an ihrer Verbesserung arbeiten. Allerdings ist es für Maschinen ausgesprochen schwierig Mobbing zu erkennen, das stark vom Kontext eines Satzes oder Bildes abhängt.
Wohl auch deswegen will Instagram zwischenzeitlich mit weiteren Werkzeugen das Problem bekämpfen. Die jetzt vorgestellten Maßnahmen seien in Rücksprache mit Betroffenen entwickelt worden, betont Instagram-Chef Adam Mosseri. Sind sie auch sinnvoll? Birgit Kimmel, Leiterin der EU-Initiative klicksafe, die sich unter anderem mit Onlinemobbing beschäftigt, mag noch kein Urteil abgeben. Da die Werkzeuge in Deutschland noch nicht verfügbar seien, habe man sie auch noch nicht testen können. Instagram hatte angekündigt, die neuen Tools im Laufe des Jahres verfügbar zu machen.
Es muss seitens der Plattformbetreiber darauf geachtet werden, dass Menschen mit Behinderungen gleichbehandelt und nicht aus falscher Fürsorge heraus diskriminiert werden. Wenn diese sich dazu entschließen ihre Botschaften über diese Plattformen zu versenden, dann sollte es auch unzensiert möglich sein. Auch Menschen mit Behinderungen haben eine Meinung welche nach außen getragen werden soll.