Zur digitalen Öffentlichkeit und dem Zusammenspiel von Algorithmen, Menschen und Emotionen ist ein Arbeitspapier mit dem Titel „Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen“ (pdf) der Bertelsmann-Stiftung erschienen.
Im Papier wird über die dominante Rolle von Intermediären wie Facebook und Twitter berichtet und wie diese ihre Algorithmen aus Profitgründen nicht auf gesellschaftliche oder politische Relevanz, sondern auf die Erweiterung von Reichweite in den „Debattenräumen der digitalen Sphäre“ ausrichten würden.
Dadurch würden – im Verbund mit einer granularen Analyse von Nutzerverhalten und Emotionen – Feedback-Loops zwischen Millionen von Nutzern und zentralisierten Algorithmen entstehen, die den Autoren beinahe „automatisch“ vorkommen. Nutzer wüssten nämlich oftmals gar nicht, welche Variablen benutzt werden, um ihnen Beiträge anzuzeigen, und können so nicht intervenieren.
Um diese Automatismen zu durchbrechen, argumentieren die Autoren, sollten Algorithmen besser zugänglich und erforschbar gemacht werden. Außerdem sollten Entwickler ethische Trainings durchlaufen.
Ich bin auf diesen Netzpolitik.org-Artikel von Facebook aufmerksam gemacht worden. Bin ich nun ein algorithmisch gesteuerter Zombie in dieser schönen neuen Welt? Muss ich erst den Algorithmus von Facebook im Sourcecode studieren, um den Lischka lesen zu dürfen?
Manchmal habe ich den Eindruck, die USA haben Plattformen und keine Plattformkritik, während die Europäer, insbesondere die Deutschen, keine Plattformen aber Plattformkritik haben. Ist das eine gelungene Arbeitsteilung oder fördert es Facebook, Google, Amazon?