Zwanzig Prozent von 9.883 – das sind 1.976. Das ist die geschätzte Anzahl Geflüchteter, bei denen das Bundesamt für Migration und Flüchtlinge, das BAMF, innerhalb eines halben Jahres eine Dialektanalyse durchführte und falsch lag. Denn die Fehlerquote für die Software lag bei etwa zwanzig Prozent. Anders ausgedrückt: Bei jedem fünften Geflüchteten lag sie falsch. Dabei sollte sie eigentlich helfen, die Herkunftsangaben der schutzsuchenden Menschen zu verifizieren, wenn es Zweifel gibt.
Dann sagt der Computer zum Beispiel: Mohammad aus Aleppo klingt wie ein Ägypter. Oder Farrah aus Herat in Afghanistan kommt eigentlich aus dem Iran. Oder die Kurdin Nazemin ist wohl eine Israelin. Der Computer unterstellt ihnen, dass sie lügen. Und bringt ihren Asylantrag in Gefahr, wenn er falsch liegt.
Der Entscheider oder die Entscheiderin entscheide immer in Anbetracht sämtlicher vorliegender Informationen, sagt das BAMF. Seit Februar 2018 sei auch die Fehlerquote auf etwa 15 Prozent gesunken, teilte die Behörde mit. Ist es deshalb verschmerzbar, wenn der Computer mal falsch liegt? Nein. Recherchen von Motherboard haben gezeigt, dass manche Entscheider dem Computer mehr vertrauen als sie sollten.
Falsche Software-Ergebnisse führen zu Aslyablehnungen
Wir haben Khalil getroffen, er soll kein Asyl bekommen, obwohl es außer der Sprachanalyse keine konkreten Anhaltspunkte dafür gibt, dass er nicht vor dem Krieg in Syrien geflohen ist. Wir haben Hajar getroffen, er musste eine Sprachanalyse machen, obwohl die Software seine Sprache überhaupt nicht kannte. Der BAMF-Entscheider von Hajar wusste das offenbar nicht, er lehnte die Asylanträge der beiden ab – als „offensichtlich unbegründet“.
„Offensichtlich unbegründet“ ist die schwerwiegendste Form der Ablehnung, denn den Geflüchteten bleibt dann nur eine Woche Zeit, gegen die Entscheidung zu klagen. Und zusätzlich einen Eilantrag zu stellen. Das ist schon für Menschen, die sich im deutschen bürokratischen System auskennen, eine Herausforderung. Für jemanden, der gerade erst anfängt Deutsch zu lernen, bedeutet das in vielen Fällen wohl das Ende der Hoffnung, in Deutschland Schutz zu finden. Hätte Hajar nicht durch Glück schnell eine engagierte Anwältin gefunden und hätte Khalil keine Unterstützer – beide wären wohl längst aus Deutschland ausgewiesen worden. Zurück in Krisengebiete, in denen ihr Leben in Gefahr ist. Die Sprachanalyse-Software hatte daran einen großen Anteil.
Das BAMF bekommt einen Preis für ein System, das nicht richtig funktioniert
Für dieses System hat das BAMF einen Preis bekommen, für das „Beste Digitalisierungsprojekt 2018“ bei einem Wettbewerb zur Digitalisierung und Modernisierung der öffentlichen Verwaltung. Durch die Sprachbiometrie werde die „Prozesseffizienz weiter gesteigert, ohne Einbußen der Qualität bei Asylentscheidungen zu riskieren“, teilt das BAMF in seiner Pressemitteilung mit. Das ist zynisch. Menschen sind zu Vorgangsnummern geworden, die es so schnell wie möglich abzuarbeiten gilt. Das BAMF ist mehr und mehr zur Fabrik geworden.
Sicher, das Bundesamt war überfordert mit den vielen Menschen, die vor allem in den Jahren 2015 und 2016 nach Deutschland kamen. Es wäre weltfremd zu verlangen, dass all das reibungslos ablaufen könnte. Es ist aber auch weltfremd zu glauben, dass Technik diese Problem lösen könnte. Aber genau das versuchte das BAMF: Mehr Biometrie, mehr Daten, Handyauswertung, Sprachanalysen. Beschleunigung von Entscheidungen, ja auch zum Wohl der Antragsteller, die nicht selten mehr als ein Jahr auf das Ergebnis ihres Asylantrages warten mussten. Doch mit der Effizienzsteigerung wird ausgeblendet, dass hinter den Prozentzahlen Menschen stecken.
Es ist entmenschlichend, mit Technik soziale Probleme lösen zu wollen. Beim BAMF geht es nicht darum, Saure-Gurken-Gläser mit undichtem Deckel auf dem Fließband auszusortieren und wenn es schief geht, erwischt jemand ein gammliges Glas. Es geht darum, Menschen zu sortieren: guter Asylbewerber, schlechter Asylbewerber. Der Asylprozess verkümmert zum Computerprozess.
Input: Sprachaufnahme. Output: Wahrscheinlichkeit für verschiedene Herkunftsregionen. Ein Papier mit statistischen Angaben und „wissenschaftlichen Maßen“, das klingt vertrauenerweckend. Es suggeriert den BAMF-Mitarbeitenden Sicherheit, eine solide Grundlage für Entscheidungen. Auch wenn sie nicht einmal in der Lage sind, den Zettel richtig zu interpretieren.
Im Fall von Hajar lag die Wahrscheinlichkeit dafür, dass er aus Ägypten kommt, laut Software bei 60 Prozent. Das mag für Laien viel klingen. Das in eine Asylentscheidung überhaupt mit einzubeziehen, ist fahrlässig. Alles unter 75 Prozent bewertet etwa das BKA, das auch mit statistischen Analysen arbeitet, als „indifferent“ – also unbrauchbar. Das als Grundlage für eine solche Entscheidung zu nehmen, wie es bei Hajar passierte, ist Irrsinn. Selbst wenn die Software fehlerfrei funktionieren würde – was sie nicht tut – ist das nahe am Würfeln. Das müsste der Entscheider erkennen, doch das tat er nicht. Man könnte es sich leicht machen und die Schuld bei den einzelnen BAMF-Mitarbeitenden suchen. Doch das ist nicht der Kern des Problems. Sie werden nur schlecht geschult, im Schnelldurchlauf sollen sie alle IT-Systeme verstehen und bedienen lernen. Wie die Ergebnisse zu interpretieren sind, wird kaum fundiert behandelt. Auf anderen Ämtern wird wohl mehr Zeit in Powerpoint-Schulungen investiert als im BAMF in den richtigen Umgang mit sogenannten Assistenzsystemen für Asylverfahren.
Ulla Jelpke, Bundestagsabgeordnete der Linken, kritisiert, dass die Bundesregierung es versäumt, „sich ernsthaft mit Fehlerquellen und der Ungenauigkeit der erzielten Ergebnisse auseinanderzusetzen“. Auch sie sieht das Risiko, dass Entscheider sich unter dem Zeitdruck auf die maschinellen Ergebnisse verlassen. „So darf mit dem Grundrecht auf Asyl nicht umgegangen werden“, sagt Jelpke gegenüber netzpolitik.org.
Die Sprachanalysen sind eine zusätzliche Fehlerquelle
Es gibt zahlreiche Fehler bei Asylentscheidungen. Fast die Hälfte der Ablehnungen, die vor Gerichten landen, werden wieder einkassiert. Um zu einer fundierten Einschätzung zu kommen, brauchen die Entscheider Zeit und Wissen. Sie müssen Details über die Herkunftsländer der Personen kennen, über deren weiteres Leben sie entscheiden, um die richtigen Nachfragen stellen zu können. Sie müssen wissen, wie sie mit traumatisierten Menschen umgehen. Sie brauchen kompetente Dolmetscher an ihrer Seite, die mit den Geflüchteten reden können – ohne Sprachbarriere und ohne Beeinflussung dadurch, dass sie eventuell eine andere politische Auffassungen haben.
Das BAMF ist diese Probleme zumindest angegangen, hat Tausende Dolmetscher entlassen, die keine ausreichende Qualifikation hatten oder gegen den „Verhaltenskodex“ des BAMF verstießen. Bei der Entscheiderausbildung liegt aber wohl immer noch einiges im Argen. Bis die aktuell skandalgeschüttelte Behörde das in den Griff bekommt, wird es noch eine Weile dauern. Statt sich darauf zu konzentrieren, holt sich das BAMF mit den automatisierten Sprachanalysen eine weitere Fehlerquelle ins Haus – und feiert sie als Innovation.
Bernd Mesovic, Leiter der Abteilung Rechtspolitik bei Pro Asyl, sagt gegenüber netzpolitik.org: „Das Verfahren ist ebenso unzuverlässig wie die seit Jahren durchgeführten Analysen mit Sprachgutachtern“. Er fragt sich:
Warum rennt man hier einfach sehenden Auges mit dem Kopf gegen eine Wand?
Die Sprachanalyse-Software hilft nicht, bessere Entscheidungen zu treffen. Sie macht es nur vermeintlich einfacher, schlechte, übereilte Entscheidungen mit vermeintlich objektiven Ergebnissen zu legitimieren. Die Systeme nehmen dem Menschen die Verantwortung ab, sich für seine Entscheidungen rechtfertigen zu müssen. Das darf nicht sein, denn Asylentscheidungen sind auch eine Entscheidung über Menschenleben. Oder ihr Ende.
Die Namen der Geflüchteten sind geändert, weil die Prozesse wegen ihrer Asylverfahren noch laufen.
Als Informatiker erlebt ihr sicher immer wieder, dass Menschen Probleme damit haben, Algorithmen zu verstehen. Ich selbst bin Physiker und erlebe immer wieder, dass viele Menschen keinen Bezug zu Statistik und Messfehlern haben. Und damit meine ich nicht Witze à la „Jeder Dritte?“ „Nein, mehr! Sogar jeder Fünfte!!“
Nun sind das aber Fähigkeiten, die muss man sich aneignen, z.B. aus Interesse. Anders natürlich bei „Entscheidern“, die solche Technik entführen, denn im Falle von Technokraten wird es so gefährlich wie beschrieben. Ich stimme absolut zu, 60% einfach als Ergebnis auszudrucken ist unverantwortlich. 40% Wahrscheinlichkeit, dass es nicht stimmt, ist mit „Im Zweifel für den Angeklagten“ nicht zu vereinbaren, das kann mir nun wirklich niemand erzählen.
Vorallem aber soll niemand wieder heulen, es würde zuviel geklagt werden!!!
Mich wundert da nichts, denn das können wir Deutsche doch besonders gut: unerwünschte Menschen industriell verarbeiten…
Mein Freund ist Deutscher, jüdischer Abstammung. Wenn er das lesen würde, dann wäre er wohl schwer verletzt von der Aussage.
Da ich aber nichts vom „sich für andere beleidigt fühlen“ halte, versuche ich es mit einer ernstgemeinten Frage:
Ich bin ein 35 Jahre „Biodeutscher, Längerhierlebender, Weißer, Ars*hloch, Mensch, etc.“ (such dir nen Wort aus, mir egal). Du bist… mir unbekannt. Aber wie kannst du vom Handeln einer (Ur-)(Groß-)Elterngeneration auf uns beide Rückschlüsse ziehen?
Da wird aber Einiges auf den Kopf gestellt:
1. Ursache aller Probleme ist doch, dass die Flüchtlinge zum ganz überwiegenden Teil ohne Ausweispapiere oder mit gefälschten hier ankommen. Dahinter steht meist die Absicht, die Spuren ihrer Flucht und ihrer Herkunft zu verwischen, um sich dann die Geschichte auszudenken, mit der man die größten Chancen auf ein Bleiberecht hat. Übrigens: Wenn man sich die Bilder in den Fernsehnachrichten anschaut – fast alle halten sie Handys in der Hand – die haben sie auf der Flucht nicht verloren – nur die Ausweise? Wie geht das denn?
Zweitens soll das BAMF die Asylverfahren beschleunigen. Das ist absurd angesichts der Tatsache, dass sie nicht Herr der Sachverhaltsermittlung sind: Die Flüchtlinge ohne Papiere und die Herkunftsländer haben kein Interesse an der Mitwirkung. Wie soll da das BAMF überhaupt sinnvolle Entscheidungen treffen?
Drittens wird der Behörde das Recht bestritten, in den Handys der Antragsteller nachzuschauen, wohin die Telefonate gehen. Das wäre doch schon mal ein schlagkräftiges Indiz.
4. Wenn man dann auf ein Übersetzungsprogramm zurückgreift, um eine Sprachanalyse zu machen, ist das doch eine gute Idee! Ja, die Technik ist unvollkommen. Deswegen wäre es ja auch richtig, die Asylverfahren solange auszusetzen, bis verwertbare Informationen vorliegen, aus Dokumenten, aus Handys oder eben aus Gesprächen mit den Antragstellern und die Befragung von Zeugen, Mitflüchtlingen, Kennern der Sprache und der Sachlage. Daran müssen auch die Flüchtlinge mitwirken – Und das dauert eben. Aber nur so lassen sich fehlerhafte Asylentscheidungen reduzieren.
Ich muss da deutlich widersprechen. Ursache des im Artikel beschriebenen unerträglichen Problems ist ein Analyse Software, die, wie gezeigt, nicht korrekt genutzt wird.
Das eine Behörde grundsätzlich Aussagen von Antragstellern (Steuer, Führerschein, etc.) auf Plausibiliät prüft, sollte ihr vorbehalten sein.
Nur muss diese Prüfung je verantwortungsvoller vorgenommen werden, je tiefer das Resultat in das Leben des Beprüften eingreifen kann.
Diese Software, dass muss jedem Fallentscheider klar, ist nichts als eine Anhandgabe, die die Aussage des Beprüften ausreichend belegen, aber niemals verneinen kann. Dafür scheint sie zu ungenau zu sein.
Falls die Software Anlass zu einem Zweifel gibt, müssen menschliche und verlässliche Dolmetscher mit den entsprechenden Sprachkenntnissen herangezogen werden. Ist dies nicht möglich so muss, so ist unser Rechtssystem aus gutem Grund gestaltet, zu Gunsten des Beprfüten entschieden werden.
Schande auf die Prüfer, die das Leben und die Unversehrtheit der Antragssteller in Risiko stellen.
Die Entscheidung „Im Zweifel für den Beprüften“ erzeugt selbstverständlich auch „Fehler“. Diese sind in diesen Grundsatz immer einbezogen, um zu vermeiden dass eben das höhere Gut, die NICHT-Verurteilung Unschuldiger, geschützt bleibt.
Alles Einwände, die man nicht unter den Teppich kehren sollte.
Aber das Kernthema ist hier mMn. Software-Ethik und nicht Flüchtlinge. Das Beispiel „Flüchtlinge“ verdeutlicht die Ethischen Probleme sehr gut.
Man läuft schnell Gefahr, dass man das MORALISCHE Problem des Beispiels mit der MORALISCHEN Frage der These oder des Artikels vermischt.
„Totschlagargumente, alternativlos…“ und ähnliches.
Ich glaube, es war bei Vaterschaftstests so, dass (z.B. vor Gericht bzgl. Unterhaltsansprüchen) bei dem Test mindestens 99,9% Wahrscheinlichkeit für die Vaterschaft vorliegen müssen. Ansonsten gilt die Vaterschaft nicht als belegt.
Wüsste nicht, wieso man bei Spracherkennungssoftware oder Bild-/Gesichtserkennungssoftware (Südkreuz!) laxere Standards anwenden sollte.
Ach so, doch, jetzt habe ichs: Die Verfahren sind zu schlecht und können nie die geforderte Genauigkeit liefern, was bedeuten würde, dass man das Verfahren in der Praxis ja gar nicht hernehmen dürfte…
Der Vergleich hingt…in der Realität.
Mutter/Kind müssen nachweisen, dass du der Vater bist, um Unterstützung zu bekommen.
Wenn man der Stimmung im Land Glauben schenkt, dann ist es wohl zu oft so, dass die Behauptung „man sei so alt, käme dort her, und werde verfolgt von“ ohne Nachweis als zu widerlegende Wahrheit angenommen wird. Daher hingt dein Vergleich… in der Realität
Aber ich stimme zu, dass unzuverlässige Software zu mehr Fehlern führen kann, als ohne.
(m)eine Meinung:
Ich möchte mein Kind, aber nicht das eines Fremden, versorgen. Das kann man anders sehen, eine andere Meinung haben.
Aber wenn man jemanden dazu zwingt, auch das fremde Kind zu versorgen, dann wird der oder die mit weniger Motivation arbeiten und leben. Damit kommen wir auf den kleinsten gemeinsamen Nenner. Und es ist in der Summe wahrscheinlich schlechter für die Gruppe.
1. Hast du Belege dafür oder vermutest du das nur? Bist du schon mal geflüchtet? Von deinen Eltern weggeschickt worden mit Geld für den Schleuser im Gürtel und deinen Pepieren, die du vielleicht hast (das kommt auf das Herkunftsland an) im Schuh. Ohne deine Familie, auf eine Reise, deren Ausgang du nicht kennst? Würdest du nicht auch versuchen, sobald wie möglich Kontakt zu deiner Familie zuhause aufzunehmen, die vielleicht in einem Kriegsgebit lebt? Per Brieftaube, Post oder telefonisch?
Zweitens und Drittens: Das arme BAMF, bzw. die Mitarbeiter dort, lesen ja mittlerweile regelmäßig die Smartphones aus. Übrigens, auch wenn du dir das nicht vorstellen kannst, sind viele der Flüchtlinge froh „angekommen“ zu sein und verweigern ihre Mithilfe nicht!
4. Yep, alles gut. Wenn ein Fehler passiert, bezahlen das die Menschen u.U. mit dem Tod. Aber damit haben WIR ja dann nichts mehr zu tun.
5. Es geht mir so auf die Nerven. Engariere dich. Versuche solche Leute kennenzulernen. Du wirst überrascht sein, wie ähnlich sie dir sind. Nicht jeder Fremde ist dein Feind!
Ließ noch mal genau nach – dann wirst Du merken, dass dein Wutkommentar (der sich jedenfalls an meinem Kommentar ausrichtet) an meinem völlig vorbeigeht. Ich habe ja nicht Abschiebung auf unsicherer Sachlage gefordert, sondern Aussetzung der Asylverfahren bis die Sachlage geklärt werden kann.
Genau diese Art überstürzten Hasses gegen Anderssdenkende macht jede sachliche Auseinandersetzung unmöglich und vergiftet die Stimmung in Deutschland.
Und ja ich weiß offensichtlich mehr als Du: In der FAZ stand vorgestern, dass 60 % der Asylbewerber ohne Ausweis nach Deutschland kommen. Die Quote der mitgebrachten Handys wurde allerdings nicht erfasst. Dazu schau Dir noch mal die Bilder von 2015 im Fernsehen an. Und dass von den verbleibenden 40 % der Ausweise viele falsch sind, weiss ich aus beruflicher Erfahrung. Das sind keine Gründe, jemanden mit Schutzbedürnis abzuschieben, darf aber auch nicht aus ideologischen Gründen einfach ignoriert werden – wenn man die Mitarbeiter des BANF angreift.
(M)eine Meinung:
„Das Schicksal von Menschen sollte nicht von einer Software abhängen.“
GPS Software bringt mich relativ sicher ans Ziel. Macht Fehler, aber damit kann ich zurecht kommen, auch wenn die Gefahr besteht, dass ich im Wasser lande.
NMR Signalanalyse Software gibt mir einen Aufschluss über z.B. ein Gift, dass sich in meinem Blut befindet.
Die Labor-Türschlosssoftware soll mich nur reinlassen, wenn ich positiv identifiziert wurde (Pass Karte). Die erhalte ich nur, weil ich vorher nachgewiesen habe, wer ich bin und das ich was im Labor arbeiten kann. Und effektiv arbeiten und für die anderen eine gute Lehre gestalten kann man da nur, wenn man den anderen Leuten vertrauen kann, nur wenige Störenfriede hat und nur so wenige das Labor ausnutzen, dass es stabil funktioniert. Man kann mich nicht zwingen hier zu arbeiten und ich kann nicht zaubern wie Tyrannja Vamperl ;)
Aber ja:
Ich möchte nicht, dass meine Arbeitsbefähigung von einer Maschine entschieden wird, sondern von einem Menschen. Aber ich möchte auch, dass die Maschine dem Menschen hilft, bei 100en von Bewerbungen eine Auswahlhilfe zu generieren. Falsche Entscheidungen werden von Menschen und Maschinen getroffen, aber den Menschen kann man zur Verantwortung ziehen.
Euer Artikel funktioniert im Kern auch ohne das moralisch aufgeheizte und somit im zivilisierten Umfeld nur noch selten mehr zu diskutierende Thema „Flüchtlinge.
Netztpolitik.org, Migrationspolitik.org, Flüchtlingspolitik.org. Jedes verdient eine gesonderte Spende/Bezahlung, wenn dort Leute schreiben, die sich in ihrem Feld auskennen. Bei diesem Artikel finde ich, dass er zu Netztpolitik.org passt, da es um Ethik von Software geht – im Kern mMn. Dass es am Beispiel des vom mit Flüchtlingen überlasteten BAMF geschieht, gutes Beispiel lockt Leser and UND ist relevant!
Warum schreibe ich das?
Weil ich letztens meine Meinung zu einem Artikel äußerte, der um Desinformation der Bundesregierung ging, die übers Internet verbreitet wird. Die Desinformation hätte auch mit Flugblättern funktioniert, das Kernthema war mMn. „Desinformation an Flüchtlinge gerichtet“ -> Flüchtlingspolitik.org.
Dieser Artikel hier ist mMn. im Kern „Ethik bei Software“. Netztpolitik wie ich sie aufgrund zum Thema passender Expertise für klasse halte.
„Aber ich möchte auch, dass die Maschine dem Menschen hilft, bei 100en von Bewerbungen eine Auswahlhilfe zu generieren.“
Das ist aber dann der Casus Knacksus: Inwieweit hilft eine Maschine mit derart schlechten Ergebnissen dem Menschen? Die Leute gehen ja erst zu Gericht und kommen dann wieder. Da hat niemand was gewonnen. Wenn Ärzte so arbeiten würden, würden die Leute wie die Fliegen tot umfallen: „Oh, die Maschine sagt 70% W’keit für Masern. Lass mal behandeln, auch wenn das Schienbein krumm ist und dem Patienten weh tut.“
Genau da knackts, es ist eine !schlechte! Software. Wie gesagt, ich wollte etwas im ersten Satz in Sonderzeichen schreiben, nicht wissend, dass dies ein HTML Befehl o.a. ist und daher rausgefiltert wurde.
Ab wann eine Software gut genug ist, ist hingegen eine sehr interessante Frage. Nehmen wir ein Autoassistenzsystem. Angenommen mit dem Autoassistenzsystem gaebe (sorry, kanadische Tastatur) es nur noch 1% der Unfaelle als wenn der Mensch steuert. Das ist in der Summe rechnerisch ein Fortschritt. Aber moralisch ein gewisses Dilemma, u.a. wegen der Frage, wen man jetzt fuer den Unfall verantwortlich machen kann, da es ja immernoch Unfaelle geben wird.
Man kann es nuechtern betrachten und sagen „Unfaelle passieren“ (z.B. richtige Entscheidung mit falschem/schlechten Ergebnis), wir sorgen fuer ein gesellschaftliches Sozialnetz, das den physischen Schaden kompensiert und den psychischen Schaden versucht zu heilen soweit moeglich. Man kann sich jedoch an niemandem Mehr raechen oder die Schuld geben, auch eine oeffentliche Selbstjustiz ist nicht moeglich. Eigentlich gute Dinge.
Andererseits hast du nicht mehr die Kontrolle, d.h. du kannst nicht mehr deinen persoenlichen Skill (ja, Menschen sind nicht alle gleich und zu exakt gleichem faehig, z.B. Michael Schuhmacher) nutzen, um dich vom anderen abzuheben, weil du in diesem Umfeld BESSER bist als 99,999% der Menschen und BESSER als das Softwaresystem. Die Chance wird dir dadurch genommen.
Die Entscheidung sollte fuer das Individuum und die Gruppe gut sein. Wenn es fuer eine der beiden nicht gut ist, dann sollte man diskutieren. Beispiele sind BAMF Software, Fahrassistenzsysteme, Beschneidung von maennlichen Sauglingen, Impfungen, Frauenquote oder Paygap, schlechtere Noten fuer Jungen gegenueber Maedchen bei Bundesjugendspielen trotz gleicher Schnelligkeit, Abtreibungen… etc.
Die Software kann helfen bei einigen Dingen wie der Festellung der Herkunft (Sprache, DNA), Risikoanalyse Bremsen oder Ausweichen, Pro-Kontra-Argumente im Internet veroeffentlichen, Herdenimunitaet sumilieren, statistische Analyse von Abermillionen Uber-Taxi-Daten, Geschwindigkeitsmessung auf der Rennstrecke, Terminfindung fuer die Abtreibung…
Aber eine Entscheidung ohne Verantwortlichen? …solange sie richtig ist, kein Problem. Ich weiss es nicht, muss ich drueber nachdenken und waere fuer eine Duskussion offen und dankbar.
„Aber moralisch ein gewisses Dilemma, u.a. wegen der Frage, wen man jetzt fuer den Unfall verantwortlich machen kann, da es ja immernoch Unfaelle geben wird.“
Nein, da gibt es kein Dilemma. Das Problem liegt darin dass man in Deutschland immer jemanden verantwortlich machen will.
in der Sache stimmen wir wohl überein, ich nenne es nur etwas anders
Da hat die Website ein paar Worte in Sonderzeichen (kleiner-größer-Zeichen) im Ersten Satz meines Kommentars unterschlagen. Ich weiß nicht mehr genau, welche Worte.
Da stand glaube ich:
„Das Schicksal von Menschen sollte nicht von einer **schlechten, unzuverlässigen** Software abhängen.“
Damit meine ich:
Also ein Teil der Entscheidungsfindung kann mMn. von Software unterstützt werden. Wenn diese dem Menschen hilft, die Daten besser bewerten zu können, und dass damit die Entscheidung von der Wahrheit (hier z.B. Name, Alter, Geburtsort, Vorstrafen, Flucht-/Migrationsgrund) abhängt.
Das Problem ist ja nicht die Software als solche, sondern ihre Anwendung durch echte Menschen und die krassen Konsequenzen, die sich aus Fehlern ergeben.
Gibt es eigentlich einen Test um rauszufinden, aus welcher Region Deutschlands man kommt? Könnte man die Software auch mit deutschen Dialekten trainieren?
Sprachwissenschaftler können das ja ein wenig aber brauchen da sehr viel Expertise. In Wilhelmshaven und Kiel heißt zum Beispiel ein Wischtuch Feudel. Ein Begriff, der von der Marine kommt. Wenn Du Onno heisst, kommst du wahrscheinlicher von der Küste als ein Alois.
Wie sieht es mit dem Einsatz von Lügendetektoren aus? Da ist Deutschland doch kritisch.