Studie zu Instagram-AlgorithmenJe mehr Haut du zeigst, desto sichtbarer wirst du

AlgorithmWatch hat zusammen mit Datenjournalisten herausgefunden, dass Bilder von Frauen in Bikinis oder Männern mit nacktem Oberkörper prominenter im Newsfeed auf Instagram gezeigt werden. Der Konzern wiegelt ab.

Paar am Strand
Viel Haut, viel Sichtbarkeit auf Instagram? Eine Untersuchung legt diesen Schluss nahe. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Christopher Campbell

Eine gemeinsame Untersuchung von AlgorithmWatch und dem European Data Journalism Network hat Hinweise darauf gefunden, dass Instagram Bildern, auf denen viel Haut zu sehen ist, eine höhere Priorität einräumt und diese eher oben im Newsfeed des sozialen Netzwerkes anzeigt.

Um den Algorithmus zu untersuchen, hatten die Forscher:innen 26 Freiwillige gebeten, ein Browser-Add-on zu installieren und dann bestimmten Accounts zu folgen. Hierzu wurden zuvor Accounts von 37 Personen (14 davon Männer) aus zwölf Ländern ausgewählt, die Instagram nutzen, um für Marken zu werben oder neue Kunden für ihr Unternehmen zu gewinnen. Es handelte sich hauptsächlich um Accounts aus den Bereichen Lebensmittel, Reisen, Fitness, Mode und Schönheitspflege.

Welche Arten von Inhalten prominenter ausgespielt werden als andere, sei nicht nur eine Frage persönlichen Geschmacks, schreibt AlgorithmWatch. Einerseits könne dies Nutzer:innen und deren Wahrnehmung der Welt beeinflussen, andererseits einen Anreiz für professionelle Account-Inhaber darstellen, sich den Normen des Online-Dienstes anzupassen, um ein größeres Publikum zu erreichen.

2.400 Bilder untersucht

Das installierte Add-On öffnet automatisch in regelmässigen Abständen die Instagram-Homepage und notiert, welche Beiträge ganz oben im Newsfeed der Freiwilligen erscheinen. Sie hält damit fest, was die Plattform für jeden Freiwilligen als relevant erachtet.

Die Annahmen für die Untersuchung waren die Folgenden: Wenn Instagram sich nicht in den Algorithmus einmischen würde, sollte die Vielfalt der Beiträge im Newsfeed der Benutzer:innen auch der Vielfalt der Beiträge der Inhaltsersteller entsprechen, denen sie folgen. Und wenn Instagram den Newsfeed jedes Benutzers nach dem jeweiligen persönlichen Geschmack personalisiert hat, dann sollte die Vielfalt der Beiträge in ihren Newsfeeds für jeden Benutzer auf eine andere Art und Weise verzerrt sein. Doch beide Annahmen bestätigten sich in der Untersuchung nicht.

Im Zeitraum der Untersuchung hatte AlgorithmWatch zwischen Februar und Mai 1.737 Beiträge und 2.400 Fotos analysiert, welche von den ausgewählten Accounts veröffentlicht wurden. Von diesen Inhalten wurden 362 (21 Prozent) von einem Computerprogramm als Bilder erkannt, die Frauen in Bikinis oder Unterwäsche oder Männer mit nacktem Oberkörper zeigten. In den Newsfeeds der Freiwilligen machten jedoch Beiträge mit diesen Bildern 30 Prozent aller Beiträge aus, die von denselben Konten aus gezeigt wurden.

Unterwäsche und Bikini führt zu mehr Präsenz im Newsfeed

Die Studie, die hier länger beschrieben (Google Doc) ist, fand folgendes heraus:

Posts, die Bilder von Frauen in Unterwäsche oder Bikini enthielten, erschienen mit 54 Prozent höherer Wahrscheinlichkeit im Newsfeed unserer Freiwilligen. Beiträge, die Bilder von Männern mit nacktem Oberkörper enthielten, wurden mit 28 Prozent höherer Wahrscheinlichkeit gezeigt. Im Gegensatz dazu wurden Beiträge, die Bilder von Lebensmitteln oder Landschaften zeigten, mit etwa 60 Prozent geringerer Wahrscheinlichkeit im Newsfeed gezeigt. (Unsere Übersetzung)

Instagram streitet diesen Zusammenhang in einem Thread auf Twitter ab: „Es gibt eine kürzlich durchgeführte Studie, die behauptet, dass wir die Inhalte verstärken, weil sie Halbnacktheit enthalten. Das ist nicht wahr. Wir veröffentlichen Beiträge auf der Grundlage von Interessen, Aktualität der Beiträge und anderen Faktoren, um den Menschen zu helfen, die für sie relevanten Inhalte zu entdecken.“ (Unsere Übersetzung).

Laut Instagram hätte die Studie eine extrem kleine Stichprobe genommen, welche die Art der Inhalte, die untersucht wurde, zum Vorschein gebracht habe: Je mehr sich jemand mit bestimmten Arten von Beiträgen beschäftige, desto wahrscheinlicher sei es, dass Instagram diesen ähnliche Beiträge zeige. Die Studie sei fehlerhaft und zeige nicht, wie Instagram funktioniere, heißt es weiter aus der PR-Abteilung des Unternehmens. In den kommenden Wochen werde die Foto-Plattform mehr Informationen dazu veröffentlichen, welche Beiträge eher empfohlen werden und welche nicht.

AlgorithmWatch weist die Kritik zurück: Man sei sich bewusst, dass die Ergebnisse keine vollständige Prüfung des Newsfeed-Algorithmus seien und die Datengrundlage klein, verweist aber auch auf die verschlossene Struktur von Instagram und der unterbliebenen Mitarbeit des Mutterkonzerns Facebooks. Dennoch habe man Grund zu der Annahme, dass die Ergebnisse repräsentativ für die allgemeine Funktionsweise von Instagram seien, so die Forscher:innen.

Für die Konsolidierung der Untersuchung seien aber mehr Daten nötig. Wer die Untersuchung des Instagram-Algorithmus unterstützen will, kann sich selbst mittels Datenspende beteiligen.

Deine Spende für digitale Freiheitsrechte

Wir berichten über aktuelle netzpolitische Entwicklungen, decken Skandale auf und stoßen Debatten an. Dabei sind wir vollkommen unabhängig. Denn unser Kampf für digitale Freiheitsrechte finanziert sich zu fast 100 Prozent aus den Spenden unserer Leser:innen.

4 Ergänzungen

  1. Wir brauchen mehr Transparenz von Algorithmen, da sie einen entscheidenden Einfluss auf unser Leben nehmen. Instagram ist ja nur ein Tropfen im Ozean von Unternehmen, die sich nicht in ihre Algorithmen schauen lassen. Das dient der Plattform-Monopolsicherung.

    Die Idee, entscheidende Informationen, die für das Leben vieler Menschen relevant sind, möglichst unzugänglich zu machen, oder nur einem sehr kleinen, ausgewählten Kreis, ist nicht neu. Wer ein Informationsmonopol hat, nutzt es früher oder später auch aus.
    Daher ist es um so wichtiger die Machtmonopole über Algorithmen zu brechen.

    Derzeit wissen nur die Unternehmen wie ihre Algorithmen funktionieren, und die Nutzer müssen darauf vertrauen, dass die Algorithmen nicht nur im Kern der Gewinnorientierung der Unternehmen dient. Unternehmen (wie z.B. Schufa) sagen: unsere Algorithmen sind perfekt, diskriminieren nicht – aber wir legen nichts zum Nachprüfen offen.

    Das erinnert ein wenig an das Vorgehen der Kirche vor der Reformation, als die meisten Menschen nicht selber nachprüfen konnten, ob die Gesetze und Regeln die gepredigt wurden auch tatsächlich so in der Bibel standen…

  2. Klassischer Zirkelschluss und somit fehlerhaft. Denn Instagram zeigt die Bilder häufiger an, die am meisten Interaktionen von Menschen erhalten. Und das sind, getreu dem Motto Sex sells, schlicht und ergreifend Bilder mit viel Haut.

    1. Das kann natürlich sein, aber beweisen kannst du deine Aussage natürlich auch nicht.

Dieser Artikel ist älter als ein Jahr, daher sind die Ergänzungen geschlossen.