Zwei Menschen lachen sich an
Öffentlichkeit Diskriminierende Moderationsregeln

TikToks Obergrenze für Behinderungen

Neue Einblicke in die Moderationsregeln zeigen, wie TikTok versuchte Mobbing zu bekämpfen: Videos von Menschen mit Behinderungen wurden einfach versteckt. Auch queeren und dicken Nutzer:innen drehte man so das Publikum ab. Das Erstaunen und der Ärger darüber sind groß.

Lesen Sie diesen Artikel: TikToks Obergrenze für Behinderungen
Jugendliche sitzen vor AMS-Beraterin
Netzpolitik Podcast Podcast NPP 190

Mal sehen, was der Computer sagt

In Österreich bestimmt bald ein Algorithmus mit über die Chancen von Arbeitslosen. Der Staat verwendet dann ein System, das offen gegen Mütter, Zuwanderer*innen und Menschen mit Behinderung diskriminiert. Dabei könnte man die Prognosen auch positiv nutzen. Wie, das erklärt in dieser Folge die Mathematikerin Paola Lopez.

Lesen Sie diesen Artikel: Mal sehen, was der Computer sagt
Überwachung Bericht von Amnesty International

Geschäftsmodelle von Google und Facebook bedrohen Menschenrechte

In einem Rundumschlag warnt die Menschenrechtsorganisation vor den Folgen des Überwachungskapitalismus. Die beteiligten Unternehmen müssten ihr Geschäftsmodell ändern, der Staat wiederum müsse die Unternehmen in einem ersten Schritt besser regulieren, um die Menschenrechtsverletzungen zu unterbinden.

Lesen Sie diesen Artikel: Geschäftsmodelle von Google und Facebook bedrohen Menschenrechte
Hand hält eine Probe
Datenschutz Erweiterte DNA-Analyse

DNA ist kein Augenzeuge, der eine Aussage machen möchte

In Bayern nutzen Ermittler heute schon DNA-Analysen, um die mutmaßliche Haut- oder Augenfarbe von Verdächtigen zu bestimmen. Das Justizministerium will diese erweiterten DNA-Analysen auch auf Bundesebene ermöglichen. Das bringt Probleme mit sich. Ein Interview mit Prof. Dr. Veronika Lipphardt.

Lesen Sie diesen Artikel: DNA ist kein Augenzeuge, der eine Aussage machen möchte
Philip Alston
Technologie Algorithmen

UN-Bericht kritisiert Einsatz neuer Technologien in Sozialsystemen

Es gibt ein hohes Risiko, dass die Digitalisierung des Wohlfahrtstaates die Ärmsten noch stärker benachteiligt als bisher. Davor warnt ein neuer UN-Bericht über den Einsatz digitaler Technologien in den Sozialsystemen. Der Bericht mahnt fundamentales Umdenken an.

Lesen Sie diesen Artikel: UN-Bericht kritisiert Einsatz neuer Technologien in Sozialsystemen
Frau sitzt neben einem AMS-Berater
Technologie Österreich

Streit um den AMS-Algorithmus geht in die nächste Runde

In Österreich hält der politische Streit um den Einsatz eines algorithmischen Systems zur Sortierung von Arbeitslosen weiter an. Jetzt haben Forscher*innen das System aus wissenschaftlicher Sicht scharf kritisiert. Der Fall könnte zum Beispiel dafür werden, wie die öffentliche Hand mit der Technologie nicht umgehen sollte.

Lesen Sie diesen Artikel: Streit um den AMS-Algorithmus geht in die nächste Runde
Kleine Polizeifigur vor Modelhaus
Überwachung Regulieren oder verbieten?

Wie Unternehmen und Politik in den USA um Regeln für Gesichtserkennung ringen

In den USA fordern Unternehmen, Bürgerrechtsorganisationen und politische Akteur*innen gesetzliche Einschränkungen für die Anwendung automatisierter Gesichtserkennung. Doch die Hintergründe und das Ausmaß der Forderungen unterscheiden sich.

Lesen Sie diesen Artikel: Wie Unternehmen und Politik in den USA um Regeln für Gesichtserkennung ringen
Datenschutz

Privatsphäre von Kindern: Wer will an die Daten?

Kinder hinterlassen heutzutage die wohl größten digitalen Fußabdrücke der Geschichte – ihre Daten werden sowohl von privaten Unternehmen als auch von Regierungen gesammelt und ausgewertet. Das hat Folgen: Es geht um ihre Freiheit, aus Fehlern zu lernen, ihre Chancen und Möglichkeiten und diskriminierende Algorithmen.

Lesen Sie diesen Artikel: Privatsphäre von Kindern: Wer will an die Daten?
Demokratie

Facebook: Bericht fordert, Lob auf Rassismus zu verbieten

Seit letztem Jahr läuft bei Facebook eine Untersuchung zu Bürgerrechten. Diese fordert nun in einem Bericht, jedes Lob zu rassistischen Ideologien zu löschen. Außerdem soll Werbung zu Wohnungen, Jobs oder Krediten nicht mehr nach potentiell diskriminierenden Kriterien geschaltet werden.

Lesen Sie diesen Artikel: Facebook: Bericht fordert, Lob auf Rassismus zu verbieten
Silhoutte von Tübingen mit Outlook-Symbolen
Datenschutz

So führt Tübingen eine Liste mit „auffälligen“ Geflüchteten

Tübingens Oberbürgermeister Boris Palmer würde problematische Geflüchtete gern an einem Ort sammeln. Er ließ eine „Liste der Auffälligen“ einrichten, Menschen darauf wurden in spezielle Unterkünfte verlegt. Nach welchen Kriterien sie auf der Liste landen, ist unklar. Bekannt ist dagegen das Format: ein gemeinsam genutztes Outlook-Postfach.

Lesen Sie diesen Artikel: So führt Tübingen eine Liste mit „auffälligen“ Geflüchteten
Öffentlichkeit

Hohes Diskriminierungspotential bei automatisierten Entscheidungen

In vielen gesellschaftlichen Bereichen werden Entscheidungen bereits von Algorithmen getroffen. Doch das ist mit Risiken für den Menschen verbunden. Mit dem „Atlas der Automatisierung“ möchte AlgorithmWatch zu mehr Transparenz in der automatisierten Entscheidungsfindung beitragen.

Lesen Sie diesen Artikel: Hohes Diskriminierungspotential bei automatisierten Entscheidungen
Demokratie

Gesichtserkennung: Kritik macht Algorithmen genauer, nicht nur für weiße Männer

Die MIT-Forscherin Joy Buolamwini hat untersucht, wie ihre Kritik an diskriminierender Gesichtserkennung zur Lösung des Problems beiträgt. Ein halbes Jahr nach ihrer Studie zeigt sich: unabhängige Beobachtung wirkt. IBM, Microsoft und andere Hersteller erkennen nun Gesichter von Schwarzen und Frauen besser.

Lesen Sie diesen Artikel: Gesichtserkennung: Kritik macht Algorithmen genauer, nicht nur für weiße Männer
Eine Frau hält sich die Hände vor das Gesicht, schwarzer Hintergrund
Öffentlichkeit

Amnesty International: Alle 30 Sekunden ein verachtender Tweet gegen Frauen

Journalistinnen, Politikerinnen, Aktivistinnen: Für viele Frauen ist Twitter ein Spießrutenlauf. Eine Studie von Amnesty International bestätiget das ohnehin marode Bild – und benennt diese Situation als Menschenrechtsverletzung.

Lesen Sie diesen Artikel: Amnesty International: Alle 30 Sekunden ein verachtender Tweet gegen Frauen
Graffiti an der Wand "Fuck Money"
Demokratie

#Thotaudit: Die neueste Taktik, um Sexarbeiterinnen im Netz zu jagen

Wer darf im Netz Geld verdienen? Sexarbeiterinnen auf jeden Fall nicht, wenn es nach den Frauenhassern hinter #thotaudit geht. Die organsierte Hetzkampagne gegen Frauen, die online sexuelle Dienstleistungen anbieten zeigt, wie einfach es ist jene zu jagen, die rechtlich nicht geschützt sind.

Lesen Sie diesen Artikel: #Thotaudit: Die neueste Taktik, um Sexarbeiterinnen im Netz zu jagen
Gesenkter Blick eines Gesichts mit fluoreszierenden Farbspritzern.
Überwachung

Diskriminierende Gesichtserkennung: Ich sehe was, was du nicht bist

Menschen erkennen Gesichter sogar in Toastbrot, doch die automatische Erkennungssoftware tut sich damit noch schwer. Grund sind rassistische Vorurteile, die in die Systeme integriert werden und mangelnde Vielfalt in den Trainingsdaten. In ihrem Buch sensibilisieren Frederike Kaltheuner und Nele Obermüller die LeserInnen für Daten-Ungerechtigkeiten.

Lesen Sie diesen Artikel: Diskriminierende Gesichtserkennung: Ich sehe was, was du nicht bist
Menschen in der Hängematte in der Sonne
Technologie

Interview mit KI-Forscher Toby Walsh: „Wir müssen jetzt die richtigen Entscheidungen treffen“

Keine Panik, Künstliche Intelligenz wird uns nicht umbringen, sondern unser Leben besser machen. Das sagt Toby Walsh, einer der führenden Experten aus der KI-Forschung. Allerdings müssen wir uns dazu klar werden, was ein gutes Leben ausmacht. Ein Gespräch darüber, was wir an Maschinen delegieren sollten, welche Jobs für uns übrig bleiben und warum alte Werte auch für neue Technologien gelten.

Lesen Sie diesen Artikel: Interview mit KI-Forscher Toby Walsh: „Wir müssen jetzt die richtigen Entscheidungen treffen“
Öffentlichkeit

Goliathwatch-Studie: Google macht weiter rassistische Suchvorschläge

Laut einer Studie des Vereins Goliathwatch macht Google trotz jahrelanger Kritik weiter diskriminierende Vorschläge für seine Suche. Die Autor*innen fordern, dass Google die Autovervollständigung abschalten oder ein Redaktionsteam dafür einstellen soll.

Lesen Sie diesen Artikel: Goliathwatch-Studie: Google macht weiter rassistische Suchvorschläge