Überwachung

Syrien oder Ägypten? Software zur Dialektanalyse ist fehleranfällig und intransparent

Im Asylverfahren kommen zunehmend computergenerierte Sprachgutachten zum Einsatz. Bezweifelt ein Entscheider, dass ein Asylsuchender seine Herkunft richtig angibt, soll Dialekterkennung weitere Hinweise geben. Doch die Verfahren haben derzeit eine Fehlerquote von 20 Prozent und die Erkennungsalgorithmen bleiben im Verborgenen.

In der Asylanhörung werden zunehmend automatisierte Sprachgutachten zu Rate gezogen. All rights reserved BAMF

Seit 1998 kann das Bundesamt für Migration und Flüchtlinge (BAMF) Sprachgutachten erstellen lassen, wenn ein Entscheider daran zweifelt, dass ein Asylsuchender seine Herkunft wahrheitsgemäß angibt. Im Zuge der immer stärker digitalisierten Migrationskontrolle testet die Behörde, die Sprache der Betroffenen automatisch zu analysieren. Noch befindet sich die Technik in der Testphase, doch schon im April 2018 soll der flächendeckende Betrieb losgehen.

Wir finanzieren uns fast vollständig aus Spenden von Leserinnen und Lesern. Unterstütze unsere Arbeit mit einer Spende oder einem Dauerauftrag.

Diese automatische Analyse hat ihre Tücken. Eine davon: Personen neigen in förmlichen Gesprächen dazu, beispielsweise in einer Asylanhörung, ihre Sprache der Situation und dem Gesprächspartner anzupassen. Nicht immer stammen die anwesenden Dolmetscher aus der Heimatregion, was zum Problem werden kann. Außerdem können sich Dialekte im Laufe des Lebens verändern, insbesondere durch Flucht oder wenn Betroffene aufgrund ihrer Herkunft bedroht, unterdrückt oder diskriminiert wurden. Zudem sind die Stimmproben sehr kurz: Nur zwei Minuten lang soll der Ausschnitt sein, der einem Computer zur sprachbiometrischen Analyse übergeben wird.

Die Bundesregierung rechtfertigt dieses Vorgehen in einer Antwort auf eine Kleine Anfrage der linken Bundestagsabgeordneten Petra Sitte. Im Gegensatz zur 30-minütigen Aufnahme bei einem Gutachten, das ein Mensch erstellt, sei „der Antragsteller allein zu hören“ und nicht im Dialog mit anderen Sprechern. Das vereinfache die Auswertung.

20 Prozent Fehler

Doch wie hoch ist die Fehlerquote beim automatisierten Verfahren? Gesicherte Erkenntnisse lägen noch nicht vor, sagt die Bundesregierung. Eine wissenschaftliche Begleitung soll 2018 erfolgen, dann wolle man auch „weiterführende sprachwissenschaftliche Aspekte“ betrachten.

Bisher könne die Software die arabischen Dialekte Ägyptisch, Irakisch, Levantinisch und Golf-Arabisch erkennen, für das erste Quartal 2018 werde derzeit ein Ausbau um Arabisch-Maghrebisch und Kurdisch geprüft. Die Fehlerquote liege bei rund zwanzig Prozent und solle im Laufe des Jahres 2018 verbessert werden.

Zwanzig Prozent, die maßgeblich zum Schicksal eines flüchtenden Menschen beitragen können. Die Bundesregierung betont aber wiederholt, dass die Ergebnisse der automatisierten Auswertung – die aus Wahrscheinlichkeiten möglicher Herkunftsländer bestehen – lediglich unterstützende Hinweise beziehungsweise Indizien darstellten. Das finale Urteil liege in der Hand der Entscheider.

Intransparente Software

Welche Software das BAMF konkret benutzt und welche Algorithmen hinter den Entscheidungen stecken, verrät die Regierung nicht. Sie spricht lediglich von einem „führenden Hersteller für Sprachsoftware“, der Auftrag sei aus einem „bestehenden Rahmenvertrag“ ohne Ausschreibung erfolgt.

Die Verschwiegenheit verwundert insoweit, als dass das Bundesinnenministerium dem Abgeordneten Roland Claus auf dessen Anfrage bereits im letzten März mitteilte, die Software Nuance einzusetzen. Die Software ist weitverbreitet, in Spracherkennungsapps für Smartphones beispielsweise. Der Rahmenvertrag des BAMF für die sogenannte „digitalisierte Migrationskontrolle“ besteht mit dem Unternehmen Atos SE.

Die Fragestellerin Petra Sitte kritisiert das Verfahren. Gegenüber netzpolitik.org sagt sie:

Was anderswo noch Zukunftsvision ist, ist im Asylbereich schon Realität: Der Staat entscheidet über menschliche Schicksale auf Grundlage von Softwareverfahren.

Insbesondere, dass die eingesetzten Algorithmen für die Betroffenen und die Öffentlichkeit nicht nachvollziehbar seien, sei „nicht nur ein Problem für sich, sondern auch ein bedenklicher Präzedenzfall“.

Weitersagen und Unterstützen. Danke!
0 Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.