Google macht bei der Sucheingabe Ergänzungsvorschläge, die als Autovervollständigung bezeichnet werden. Die in den meisten Fällen harmlose Funktion steht seit Jahren in der Kritik, da manche Suchergebnisse haarsträubende Resultate mit rassistischen, sexistischen oder anders anstößigen Vorschlägen bringen. Trotz Bemühungen Googles ist das Problem offenkundig nicht leicht aus der Welt zu schaffen: Laut einer diese Woche veröffentlichten Studie des gemeinnützigen Vereins Goliathwatch bietet Google bei deutschsprachigen Suchen weiterhin rassistische und diskriminierende Ergebnisse an. Besonders betroffen sind Kombinationen von Gruppen- oder Personennamen mit einem Verb.
Ein anschauliches Beispiel für dieses Phänomen ist die Sucheingabe „Migration ist…“ – darauf setzte Google bis zuletzt die Vervollständigung „Völkermord“. Auf „Schwarze sind…“ folgte der Vorschlag „weniger intelligent“ oder auf „Merkel ist…“ „eine Volksverräterin“. Die Liste lässt sich noch lange fortführen. Goliathwatch spricht in ihrer Studie über das Phänomen als „Autodiskriminierung“. Die Vorschläge waren auch bei einem Test durch netzpolitik.org diese Woche noch sichtbar.
Trotz lauter Kritik in den vergangenen Jahren ist Autodiskriminierung dem Anschein nach nicht weit oben auf der Prioritätenliste von Google. Immer wieder sorgte der Konzern damit auch für Schlagzeilen: Menschenrechtsorganisationen verklagten Google in Frankreich wegen „latenten Antisemitismus“, denn Google zeigte bei der Eingabe der Namen der ehemaligen Präsidenten Frankreichs Francois Hollande und Nicolas Sarkozy den Begriff „juif“ an, also Jude. In Deutschland sah sich Google mit Problemen konfrontiert, da die Suchmaschine Falschmeldungen über die frühere Präsidentengattin Bettina Wulff verbreitete, die daraufhin Google verklagte.
Google räumt auf Anfrage ein, ein Problem bei den Suchvorschlägen zu haben. „Die Vervollständigung von Suchanfragen wird automatisch und ohne menschliches Zutun durch einen Algorithmus generiert. Wir geben uns Mühe, unangemessene Vervollständigungen zu vermeiden, dies gelingt uns aber leider nicht immer“, schrieb uns eine deutsche Firmensprecherin. Nutzer*innen könnten problematische Vervollständigungen an die Firma melden.
Wirkmächtige Vorschläge
Laut einer Studie der Humboldt-Universität zu Berlin übernehmen die Hälfte aller Nutzerinnen und Nutzer die von Google angebotenen Suchvorschläge. Die Online-Dienstleister Revolverheld und Fairrank, die sich mit Suchmaschinenoptimierung beschäftigen, zeigten in einem Blogbeitrag zudem auf, dass ihren Daten zufolge ein Drittel der Nutzer*innen die negativ konnotierten Suchvorschläge für bare Münzen nehmen.
Der junge Verein Goliathwatch mit Sitz in Hamburg hat es sich zum Ziel gesetzt, die Macht von Großkonzernen wie Google einzuschränken. Goliathwatch finanziert sich aus Spenden- und Fördergeldern von gemeinnützigen Stiftungen. Vereinsvorstand Thomas Dürmeier war über zehn Jahre Vorstandsmitglied von Lobbycontrol und ist im wissenschaftlichen Beirat bei den Globalisierungskritikern Attac.
Nach Angaben von Goliathwatch ist Google nicht die einzige Suchmaschine mit diskriminierenden Suchvorschlägen. Doch da rund neunzig Prozent der Suchen in Deutschland mit Google gemacht werden, kommt dem Unternehmen besondere Verantwortung zu. Autodiskriminierung kann die Reputation einer Firma oder einer Person nachhaltig beschädigen, selbst wenn die Suchvorschläge nicht der Wahrheit entsprechen. Den Vorschlägen von Google liegt kein redaktioneller Prozess zu Grunde, stattdessen basieren sie auf algorithmisch ausgewählten Nutzereingaben. Über die Funktionsweise ist wenig bekannt, da Google im Bezug auf seine Algorithmen nur wenig preisgibt.
Geschäftsmodell Daten
Google finanziert seine angeblich kostenlosen Dienste größtenteils über Werbung. Die Dienste sammeln eine Masse an Daten, die für Werbekunden relevant sind. Die Daten werden mit Hilfe von Algorithmen ausgewertet. Nicht alle sehen die selben Suchvorschläge: Google kann Inhalte für bestimmte Gruppen hervorheben oder unsichtbar machen. Laut dem Bericht von Goliathwatch setzt das Geschäftsmodell von Google, mit Werbung und personalisierten Daten seine Dienste zu finanzieren, falsche Anreize: Der Konzern habe ein Interesse, immer mehr Daten zu sammeln und seine Dienste immer weiter zu personalisieren.
Bei Kritik verteidigt Google sich oftmals mit der Behauptung, dass man nur eine Suchmaschine sei. Wäre Google aber bloß eine Suchmaschine, müssten aus Sicht von Goliathwatch für den Konzern ähnliche Regeln gelten wie für ein Telefonbuch oder einen Bibliothekskatalog. Sie müssten also eine vollständige, neutrale und genaue Darstellung der verzeichneten Werke bereitstellen, die über Parameter leicht zu suchen sind. Das ist bei Google jedoch nicht gegeben, da hunderte Algorithmen und Werbung die Suchergebnisse gewichten und verändern. Es werden bestimmte Meinungen ausgewählt und verstärkt.
Unter Berücksichtigung des Suchmaschinensimulationseffektes, welcher sich auf Suchergebnisse bezieht, durch den es zu empirisch belegten Manipulationseffekten kommt, ist Googles Vorgehensweise mehr als fragwürdig. 25 Prozent der unentschiedenen Wähler*innen könnten durch veränderte Suchergebnisse gesteuert werden, ergaben Experimente von Robert Epstein, dem Entdecker des Effektes.
Deshalb stellt Goliathwatch fünf Forderungen an Google, den Deutschen Bundestag und die Europäische Union.
- Erste Forderung an Google: Autovervollständigung als ein System von #Hatesearch abschalten!
Goliathwatchs erste Forderung ist die Abschaffung der Autovervollständigung. Falls Google die Suchvorschläge beibehalten möchte, da die Hilfsfunktion den Suchvorgang vereinfacht, müssten mögliche Vorschläge vor deren Freigabe von einem Redaktionsteam genehmigt werden. Eine Änderung des Algorithmus kann aus Sicht von Goliathwatch die Autodiskriminierung nur geringfügig verhindern. Die effektivste Methode zur Lösung des Problems wäre also das Abschalten der Autovervollständigung. - Zweite Forderung an Google: Schutz des Privaten als Grundeinstellung festlegen!
Die Grundeinstellungen von Google-Produkten sollen zum Vorteil der Freiheit und Privatsphäre der Endnutzer*innen gestaltet werden und nicht zum monetären Nutzen der Werbekunden anderer Big-Data-Kunden. - Dritte Forderung an die EU und den Deutschen Bundestag: Enge demokratische Grenzen von Datenstrukturen schaffen!
Um Datenmissbrauch vorzubeugen sollen den Datenbanken von Google strukturelle Grenzen gesetzt werden. Goliathwatch versteht dies im selben Sinne, wie die Datenspeicherung staatlicher Stellen begrenzt ist, so sollte das auch für Privatunternehmen gelten. - Vierte Forderung an die Politik: Schaffung eines demokratischen Aufsichtsrats zur Wirkung von Algorithmen!
Der Deutsche Bundestag und die Europäische Union müssen gesellschaftliche Institutionen zur Regulierung digitaler Techniken und Algorithmen schaffen. Dies soll in Form eines demokratischen Aufsichtsrats geschehen, der aus der Gesellschaft die Risiken und Fragen digitaler Techniken und Algorithmen überwacht. - Fünfte Forderung an den Bundestag: Google entflechten und eine gesellschaftliche Digitalisierungsstrategie formulieren!
Goliathwatch fordert die Schaffung rechtlicher Regeln, um die Marktmacht von Digitalkonzernen wie Google, Amazon und Facebook zu entflechten. Aus ihrer Sicht benötigt die digitale Entwicklung eine gesamtgesellschaftliche Strategie, um negative Effekte wie die Beeinflussung von Wahlen oder Freiheitsrechten entgegenzuwirken.
Die Autovervollständigung schlägt nunmal das vor, was am häufigsten zusammen mit dem bereits eingegebenen Begriff gesucht wurde.
Hier eine Autodiskriminierung zu sehen halte ich für lächerlich.
Das ist so als würde ich einem Telefonbuchverlag vorwerfen den eigenen Namen neben einem Namen zu drucken mit dem man nicht identifiziert werden möchte.
Ein „filtern“ der Autovervollständigung wäre in meinen Augen Zensur und dass dies auf np gefordert wird halte ich schon für ein starkes Stück.
Daten die ein Abbild der Wirklichkeit sind können niemals diskriminierend sein, sie sind nur eine Kopie! Durch das verstecken oder zensieren der Kopie ändert sich absolut nichts. Die Leute sehen dich auch, wenn du die Augen zuhälst!
>Hier eine Autodiskriminierung zu sehen halte ich für lächerlich.
>Das ist so als würde ich einem Telefonbuchverlag vorwerfen den eigenen Namen neben einem Namen zu drucken mit dem man nicht identifiziert werden möchte.
Die Analogie trifft leider überhaupt nicht. Dass Google mit seinen Suchvorschlägen beispielsweise rassistische Stereotypen reproduziert ist etwas, das man prinzipiell schon kritisieren kann. Die Wirkmacht der Suchvorschläge sollte man nicht unterschätzen, da sie suggestiv einiges bewirken können und von vielen übernommen werden.
Ist das Zensur? Schwierig. So einfach ist das nicht.
Wenn „Schwarze sind weniger intelligent“ zensiert wird, mag das eine legitime Art der Bekämpfung von Rassismus sein. „Merkel ist …“ „…Deutschlands Untergang“ und „Migration ist…“ „…Völkermord“ mögen blödsinnige Verschwörungstheorien sein und Leute potentiell in einen Sumpf locken, aber vielleicht (zumindest im ersten Fall) auch politische Meinungen?!
Ich mag hier kein Urteil fällen, höchstens, dass diese Aussage:
>Daten die ein Abbild der Wirklichkeit sind können niemals diskriminierend sein, sie sind nur eine Kopie! Durch das verstecken oder zensieren der Kopie ändert sich absolut nichts.
Blödsinn ist. In den USA haben Schwarze statistisch schlechtere Bildungsabschlüsse als Weiße. Ist der Vorschlag „Schwarze sind … weniger intelligent“ damit legitim? Ein Abbild der Wirklichkeit? Wohl kaum. Da überspringt man einige wichtige Punkte.
Gilt das dann auch für „Weiße sind weniger intelligent“ oder ist das dann i.O.?
Es ist interesant, wie seit den alten Griechen, alle 75-100 Jahre der Versuch Sprache einzuschränken, wiederkehrt.
Nicht aus der gesamten Geschichte gelernt…
Weiße sind weniger intelligent wird aber nicht angezeigt du Troll!
Dein Kommentar ist ein typische Trollmethode der extremen Rechten!
Verzieh‘ dich!
Die einen sind mehr.
Die anderen sind weniger.
Die anderen sind dennoch da.
„Weiße sind weniger intelligent“ wird nicht angezeigt weil Schwarze diese Position bereits besetzen. Du Zecke, ihr seid dümmer. Hoffentlich werdet ihr alle Opfer von Einzelfällen, damit ihr lernt.
Anonymous sagte am
7. September 2018 um 06:59 Uhr
„Weiße sind weniger intelligent“ wird nicht angezeigt weil Schwarze diese Position bereits besetzen. Du Zecke, ihr seid dümmer. Hoffentlich werdet ihr
alle Opfer von Einzelfällen, damit ihr lernt.
Mehr braune Asozialität und Antiintelligenz geht nicht, danke dass du es aus deinem braunen Loch mal wieder bestätigst das Anzi sein einfach dumm sein bedeutet! XD
„Schwarze sind weniger intelligent“ wird mir auch nicht angezeigt…
Also bei mir taucht das hier auf bei „Weiße sind…:
… Goblins und sollen ausssterben“
… nun mal langsamer“
… Goblins“
Bei Schwarze sind sehe Ich nur:
„schneller wegen Bauchnabel“
„Besser im Bett“
„schneller“
Bei Schwarzen also nur positives, wenn auch klischees, bei Weißen im Grunde eine Bezeichnung als Monster und der Wunsch nach Ausrottung an erster Stelle.
Und nichts positives oder neutrales.
Falls jetzt jemand meint dass MIR das nicht angezeigt wird, könnte man spekulieren dass Google eher Rassisten solche Ergebnisse anzeigt, wie hier kritisiert…
Tja, so werden die heimlichen Rassisten entlarvt…
Ich bekomme nicht ein negatives Ergebnis zu Schwarzen.
Auf der anderen Seite sind Weiße Monster die ausgerottet gehören ;-) .
Genial solche Widersprüchlichen Ergebnisse…
“X sind weniger intelligent“ bildet natürlich nicht eine Wirklichkeit ab, dass sie tatsächlich weniger intelligent wären, sondern die, dass nach diesem Satz häufig gesucht wird. Über alles andere treffen die Suchvorschläge ja überhaupt keine Aussage. So viel Autovervollständigung müsste das eigene Hirn schon noch leisten können.
In der nachfolgenden Diskussion wird völlig vergessen, dass Google nicht nur einen Vorschlag unterbreitet, sondern 5 bis 6 z.T völlig gegensätzliche gleichzeitig. Wenn man die insgesamt betrachtet, scheint mir ein Rassismusvorwurf mit der Begründung von anonym auch ziemlich abwegig.
Dann sollte man auch Geschichtsbücher und Nachrichten zensieren, damit niemand erfährt wie Rassisten ticken oder getickt haben.
Denn die Autovervollständigen-Funktion ist ein Abbild der Realität.
Mein dunkelschwarzer Hausname scheint für die Autocompletefunktion von Google eine besondere Aufforderung zu sein,
rassistische pornografische Einträge der übelsten Art abzuladen. Ich bin Wissenschaftlerin und nicht in der von Google für mich vorgesehenen Branche tätig. In der klassischen Googlesuche habe ich für eine höhere vierstellige Summe massenweise pornografische Einträge beseitigen lassen.
Die Erkenntnisresistenz von Google ist wahrhaft bemerkenswert.
Ist das nicht bei der Auto-Vervollständigung aller (weißen) Multi-Milliarden Konzerne so? Ich hab die online-/cloudgenerierte generell aus: Jede/r sollte doch am besten seinen/ihren Satz alleine vollständig sagen/schreiben können.
Übrigens:
Sechste Forderung: Seit dem Cambridge Analytica Skandal rund um die moderne digitale Form von Werbung, des Micro-Targetings und seiner Möglichkeiten der Manipulation menschlichen Zusammenlebens, darf „Monetarisierung“ nicht mehr nur durch Häckchen und klick – sondern mit Absichtserklärung, Unterschrift und Personalausweis-Kopie des Youtube-Kanal-Inhabers möglich sein.
Hm, Autovervollständigung komplett abschalten, das will ich nicht. Die Forderung ist mir zu radikal und geht gegen mein Interesse.
Mag bei mir ein Spezialfall sein, ich google halt keine Begriffe aus den alltäglichen Nachrichten, sondern wissenschaftliche Fachbegriffe. Beispiel, ich will unbedingt bei Eingabe von „langevin equation“ vorgeschlagen kriegen, dass man damit auch Rotationsdiffusion behandeln kann. Ja, es ist deutlich schneller, das vorgeschlagen zu kriegen, als dass es irgendwo im Wikipediaartikel im Unterkapitel 23 auftaucht.
Was die sinnvoll fordern könnten: Google muss ein Redaktionsteam haben, und die entscheiden, für einzelne Suchbegriffe die Vorschläge abzuschalten. Da muss man dann diverse Details klären, sollen die Whitelisting oder Blacklisting machen, wie setzt zB Bettina Wulff das durch bzw anhand welcher Kriterien wird das entschieden. Da kann man ja starke Bedingungen reinschreiben, zum Beispiel alles was mit Personennamen anfängt soll nicht mehr autovervollständigt werden. (Wobei sich dann natürlich als nächstes die Stadt Chemnitz beschwert… ist ja kein Personenname).
TLDR: Mir hilft die Autovervollständigung beruflich in der Wissenschaft, bitte nicht komplett abschalten. Das Problem erscheint mir schwierig und die Maximalforderung ist keine gute.
„Google muss ein Redaktionsteam haben, und die entscheiden, für einzelne Suchbegriffe die Vorschläge abzuschalten“
Ich habe deinen ganzen Kommentar gelesen, keine Angst. Ich zitiere hier nur den Punkt, du später auch unterstrichen hast:
Wer legt die Kriterien fest, was zensiert wird?
Oder hier konkret, wer bestimmt, welche Zusatzwörter zu Suchbegriffen nicht hinzugefügt werden dürfen?
Wenn eine Wortkombination „viel gesucht“ ist, dann ist das „viel gesucht“ eine Tatsache, ein Fakt.
Suchvorschläge nach welchem Kriterium, welches ist das am wenigsten moralisch verwerfliche?
Man könnte sagen, dass die reine Statistik neutral ist. Aber das (Such-)Ergebnis gefällt einem vielleicht nicht.
Selbstverständlich verstehe, dass wenn man etwas immer wieder liest und hört, es normaler wird. Das gilt leider auch für „wir müssen das zensieren, dies unterlassen etc“.
Es gibt Fakten, die einem nicht gefallen. Dann löse das Problem, aber verstecke oder bekämpfe nicht allein die Symptome.
Hallo, ich bin ganz Ihrer Meinung. Ich finde die Autovervollständigung ein sinnvolles Feature, das benötigt wird um wissenschaftliche Arbeit einfacher zu machen. Genau deswegen suche ich ja mit Google. Autovervollständigung abzuschaffen und ein Redaktionsteam einzustellen hilft da wenig, da die Relevanz der vorgeschlagenen Kombinationen unmöglich von Menschen geprüft werden kann … speziell auch wegen der unterschiedlichen Suchsprachen.
Außerdem haben Redaktionsteams einen „Bias“. Sie könnten bei politischen Themen linke oder rechte Meinungen hervorheben. … und das wollen wir ja nicht, oder?
Doch. Genau das wollen die. Schließlich halten sie Sie und mich ja nicht fähig selbst mit rassistischen Bemerkungen kontextuell korrekt umzugehen.
Soll ein Rassist doch gerade seine Bemerkungen offen heraus posaunen, damit ich ihn besser erkennen kann. Aber darum geht es ja gar nicht wirklich. Ist ja schon fast amüsant zu lesen, dass es Menschen gibt die meinen, ein Roboter oder Algorithmus könne rassistisch sein. Ich meine: eher ist die Erde flach!
Die eigentliche Frage ist doch: werden bei Netzpolitik.org die Praktikanten (plural (Info für Millenials)) indoktriniert – oder sind sie es schon wenn sie dort anfangen?
Mal bei der Google Suche ausprobieren:
„Christen sind “
„Moslem sind “
„Buddhisten sind “
„Atheisten sind “
und Vorschläge lesen, dann
„Juden sind “
eingeben…
Also ich muss ehrlich sagen ich hielt als ich den Artikel (Headline) gelesen hab die ganze Sache für überspitzt, aber als ich deutsche sind… eingegeben hab wär‘ mir fast die Hutschnurr geplatzt
Also geht es dich nichts an, solange es nicht um ein Thema geht das dich interessiert? Ich würde sagen: Nachdenken bevor man antwortet.
Was genau war da denn so schlimm?
Hier die Ergebnisse:
Deutsche sind:
Nichtmigranten mehr nicht
Opfer
arm
Bewegungsmuffel
immer Pünktlich
unglücklich
klar gegen Erhöhung von Militärausgaben
ungepflegt
direkt
Google spiegelt damit die Anfragen wider, es ist halt saubere Statistik.
Es passt zum Weltbild vieler sog. Linker, das unsichtbar machen zu wollen, statt aktiv damit umzugehen. Sind idR die gleichen, die sich dann spaeter wundern, wenn die notwendigen Manipulationswerkzeuge gegen sie selber verwendet werden. Aber ok, sind auch viele darunter, die ohnehin der gefuehlten Wirklichkeit den Vorzug geben, progressiv im Sinne von post-aufgeklaert. Dumm nur, dass die Neu-Rechten das auch sind, nur erfolgreicher.
Ach spiegelt das die häufigsten Anfragen? Interessant! Bist du google Mitarbeiter der den Algo mitschreibt oder woher weißt du das? Alphabet und Facebook sind rassistische und sexistische Unternehmen, deshalb gibt es diese Vorschläge! Das beweisen all die gelöschten Videos, Posts usw. der letzten Jahre!
Und tu nicht so als ginge es darum Meinung zu zensieren, denn Hass und Hetze ist keine Meinung!
Zudem: Neu-Rechte gibt es garnicht, nur die alte, braune Scheiße im Hipstergewand!
#IdentitäreBesudelung
Was ist wahrscheinlicher?
1) Google hat einen Algorithmus, der dazu gemacht (!) ist, negative Stereotype als Suchwortvervollständigung auszugeben.
2) Google hat einen Algorithmus, der dazu gemacht ist, die Suchanfragen mit statistischen Mitteln passend zu vorherigen Suchvorgängen auszugeben, weil viele Menschen so gesucht haben.
Gleich das Böse anzunehmen, wenn ein Vorgang nicht mit meiner Ansicht zusammenpasst (Meine Meinung ist richtig, sonst hätte ich ne andere, denn ich bin nach meiner Moral gut, daher muss die andere Seite ungut, d.h. böse sein.)
Immer gleich das Böse anzunehmen, wenn jemand eine andere Meinung hat, wird nie dazu führen, dass man gemeinsam einen Kompromiss, oder sogar ein Umdenken einer Seite erreicht.
Und ich finde, das sollte Ziel einer Diskussion sein.
h s sagte am
6. September 2018 um 21:33 Uhr
„Google spiegelt damit die Anfragen wider, es ist halt saubere Statistik.“
Das ist nicht die Annahme einer Wahrscheinlichkeit, sondern als Fakt formuliert!
Und auch für dich gilt:
Je offensichtlicher du die Meinung vetritts die meisten Menschen würden denken was google sich da aus seinem braunen Algo drückt, umso eher wird offensichtlich das hier keine Diskussion stattfindet sondern Propaganda!
Es koennte auffallen, dass diese Statistik keinerlei Aussage darueber trifft, was die Leute denken.
Sie trifft eine Aussage darueber, welche Begriffskombinationen gesucht werden. Uebrigens auch nicht darueber, warum gesucht wird oder welche Suchergebnisse dann warum angeklickt werden.
Solche komplexen Überlegungen und Beantwortung von Detailfragen kannst du von Physikern oder Mathematikern erwarten, aber nicht von diesen Sozial“wissenschaftlern“ :P
Die Autoren kann ich nicht erkennen, diese Arbeit kann ich nicht ernst nehmen, sehrwohl jedoch das Thema.
Dank für die Kommentare und Diskussion zu unserer Studie von Goliathwatch. Wer noch stärker gegen #HateSearch aktiv werfen will, auf http://www.goliathwatch.de ist die Unterschriftenliste und die.wachsende Doku, wie Google reagiert. Mehr demnächst. Thomas, Campaigner Goliathwatch
Einleitung: „Nach dem Eingeben der Suchbegriffe „Frauen dürfen“ macht Google im Februar 2018 den Vorschlag „Frauen dürfen nicht wählen [’nicht wählen‘ ist durchgestrichen, a.v. Rainer Datenschutz]“. “
(Fußnote 5) “ Nach unserer Meinung problematische und diskriminierende Suchvorschläge streichen wir in unserem Text durch.“
Eine Meinung wenn es um das Sammeln von Ergebnisen geht, ist eine kritische Sache, weil dort leicht ein Bias Effekt entsteht. Ihr macht es kenntlich, das diese Veränderung der Ergebnisse aufgrund eurer Meinung stattfindet und ihr macht es transparent, das ist gut und richtig, aber ich möchte es dennoch loben, dass ihr es kennzeichnet, obgleich es normal in der Wissenschaft sein sollte.
Aber ich sehe an diesem Beispiel gleich schon in der Einleitung ein Problem: „Frauen dürfen“ tatsächlich „nicht wählen“ in manchen Gegenden der Erde. Und ich halte es für falsch, darauf nicht aufmerksam zu machen, bzw. diese Information zu löschen/zensieren/wasauchimmer. Gut, bis vor 100-200 Jahre durften sehr viele und dürfen heutzutage immernoch zu viele Bevölkerungen NICHT wählen, aber das ist ein Thema für eine andere Diskussion.
Ich halte das für eine gewaltige Fehleinschätzung, diesen Suchvorschlag zu unterbinden. Und ihr habt Monate lang Zeit gehabt zu überlegen, was ihr Durchgestrichen zeigen wollt und in euren Datensatz aufnehmen wolltet.
Wie fehlerbehaftet, intransparent, meinungsgesteuert wird dann erst das tagtägliche „Ändern“ der Suchvorschläge sein?
Und jetzt ein zynisch-emotionaler Kommentar (versucht mir bitte gute Absicht und Gesinnung zu unterstellen und nicht die maximal böseste Interpretation meiner Formulierungen zu wählen):
Eure Forderung die Google Autovervollständigung wegen Diskriminierung abzuschalten halte ich für einen Fehler, für absolutistisch angehaucht, für ein Verschließen und Verstecken vor Wahrheit, sich nicht dem Problem sondern dem Symptom zu stellen.
Der Algorythmus wird höchstwahrscheinlich* ein Mix aus vorherigen Suchanfragen und ggf. Website Inhalten zu als Input haben, er wird nicht einfach mal so aus Spaß irgendwelche Stereotypen verbreiten. Klar ist das möglich, aber doch sehr fragwürdig.
Einem gefallen die Fakten (*höchstwahrscheinlich Fakten, s. letzter Absatz) nicht? Gut, dann überblenden wir sie oder setzen ein Stoppschild davor. Mit dem Stopschild kann keiner mehr die Inhalte sehen und finden, denn sie sind ja weg. Alle Websiten mit dem fragwürdigen Inhalt sind weg, alle Suchanfragen haben nie existiert, die Gesinnung ist weg. Und Menschen dürfen jetzt überall wählen.
Und wer legt die richtige Meinung fest, 80 Millionen Menschen oder 80 Angestellte?
Mal nebenbei: es gibt heutzutage auch Männer die nicht wählen dürfen. Auch in der Geschichte durften Männer meist nicht wählen (wen denn? den Kaiser?) Und die Männer die wählen durften, waren meist für die Landesverteidigung zuständig – heißt, die Wahl beeinflusste direkt die Wahrscheinlichkeit bei einem durch schlechte Politik angezettelten bewaffneten Konflikt ins Grass zu beißen – oder eben nicht.
„Eure Forderung die Google Autovervollständigung wegen Diskriminierung abzuschalten halte ich für einen Fehler, für absolutistisch angehaucht, für ein Verschließen und Verstecken vor Wahrheit, sich nicht dem Problem sondern dem Symptom zu stellen.“
Es wird dasselbe wie in der Politik passieren: die Faschisten, Rassisten, Sexisten und Chauvinisten dieser Welt pilgern zu einer Suchmachine, die ihnen ihre „Auto-Vervollständigung“ (fürs Smartphone!) ermöglicht. Können sie keine NSDAP wählen, wählen sie a.ä., bsplw. die AFD.
Sie werden sich sowohl als auch eher noch mehr in Filterblasen via Facebook zurückziehen – und bestimmt nicht mal anfangen mit Duckduckgo zu suchen oder gar Wikipedia und öffentliche Bibliotheken zu nutzen – denn die seien ja auch nur Marionetten.
Die Welt gehört nunmal langsam in die Hände von Selber-denkenden-Menschen – denn die anderen wollen die Welt Unter-ihre-Knute.
Wie setzt man denn diese Funktion „wissenschaftlich“ ein?
Denn Google zeigt jedem andere Ergebnisse an.
Was hier kritisiert wird, wird mir nicht angezeigt.
Nur positives über Schwarze, aber Weiße sind auszurottende Monster (kein Witz).
Und was die „Bias“ angeht, bin Ich mir sicher dass auch „Rainer Datenschutz“ einen Solchen hat.
In einigen Fällen sogar extreme Befangenheit die sich in radikaler bis verhetzender Ablehnung äußert.
Das gilt evtl. für 95, 98… Prozent der Wissenschaftler. Zumindest in der Öffentlichkeit.
Selbstverständlich habe ich einen Bias. Daher ist es wichtig das Datensammeln transparent und nachvollziehbar zu machen. Sonst wirkt sich das sehr leicht auf die Ergebnisse aus.
Ich habe mal selber google.de und google.ca probiert, die „Messwerte“ sind:
Schwarze sind
– schneller wegen Bauchnabel
– besser im Bett
– schneller
Weise sind
– nunmal langsamer
– sind goblins und sollen aussterben
– sind goblins
Interpretieren werde ich nicht, weil sonst der Bias hinzukäme.
Liest sich wie yet another pointless SJW project to earn on a living.
Wen interessiert denn die Autovervollständigung? Wichtig ist doch, wonach man sucht. Wonach jemand sucht, der „Schwarze sind …“ eintippt, darüber kann man nur spekulieren. Aber warum soll er nicht nach Aussagen zu Vorurteilen suchen wollen? Die simplifizierende Logik im Text „die meisten übernehmen die Textvorschläge, also suchen sie nach >Schwarze sind weniger intelligent<, daher sind sie Rassisten" ist nicht zulässig und unterstellend.
So „unterstellend“ finde ich das gar nicht. Ich meine, welcher „normale“ Mensch kommt schon auf die Idee, nach „schwarze sind“, „juden sind“ usw. zu suchen? Als aufgeklärter Mensch brauche ich das nicht, aber vermutlich Leute, die nur an der Bestätigung ihrer längst gefällten Vorurteile gelegen ist (und die anscheinend auch über ziemlich viel freie Zeit verfügen, sich solche Suchanfragen „leisten“ zu können). Und das sind, wie die Suchanfragen zeigen, ja ziemlich offensichtlich Rassisten!
Demnach sind die Leute dieser Stiftung Rassisten, weil die so etwas suchen.
UND weil sie es angezeigt bekommen. Denn nicht jeder bekommt das Gleiche angezeigt…
Denn Ich habe keine dieser Aussagen in der Autovervollständigung.
Über Schwarze nur positives, über Weiße negatives, inkl. dass sie Monster sind und ausgerottet gehören.
Und beides in EINEM Ergebnis.
„stattdessen basieren sie auf algorithmisch ausgewählten Nutzereingaben“
Ich finde es ziemlich diskriminierend, dass der Algorithmus Frauen ausschließt. (Ernstgemeinter Sarkasmus)
Mir ist schon klar, dass hier das generische Maskulinum verwendet wird, aber das wäre mir auch klar, wenn es überall verwendet wird. Wäre es ein präziser wissenschaftlicher Text, dann wäre es nicht mehr so klar.
Hat doch scheinbar funktioniert. Ich habe kein einziges der im Text genannten Beispiele auf Google nachvollziehen können, da mir andere Vorschläge gegeben wurden. ;)
D.h., dass der ganze Text erfunden ist, um die Diskriminierung von Weißen zu relativieren, der wir in der Google Autovervollständigung ausgesetzt sind?
(Sarkasmus)
Oder, dass es eine Arbeit ist, die nicht reproduzierbar ist, was sie jeglicher wissenschaftlicher Relevanz beraubt?
(Ernstgemeinter Sarkasmus)
Eure Nachbarn sind ja auch noch schlimmer indoktriniert worden als ihr. Was soll der arme Praktikant denn anderes schreiben, wenn er gelernt hat er müsse *Innen überall dran hängen? Auf jeden Fall ein tolles Fallbeispiel dafür, wie Indoktrination funktioniert – und wie diese von schon indoktrinierten Individuen (oh, falsches Wort, sind sie ja dann nicht mehr) auf andere weiter-projiziert wird.
Merciii !
Das tolle ist, das ich keine Autovervollständigung benötige um rassistisch zu Suchen.
Ist das nicht toll?
Aber meisten nicht „fehlerfrei“ xD
Einfach keine Scripte ausführen und … die Autovervollständigung ist weg.
Eventuell auch mal eine andere Suchmaschine (z.B. MetaGer, kommen teilweise komplett andere Ergebnisse) in Erwägung ziehen.
Kann doch jeder für sich machen und es halten wie er will.
Ganz nebenbei, neben dem rassistischen Vorschlag kommen noch eine Latte anderer Treffer bei Google.
Die Frage die sich mir da noch stellt, wer stellt solche Suchanfragen, das er solche Vorschläge unterbreitet bekommt? Hauptberufliche Rassismussucher und Rassisten fallen mir da ein. Der Normalbürger wird da nur zufällig mit in Kontakt kommen.
Für den Schutz der Privatsphäre würde ich Firefox mit diversen Addons und einer modifizierten about:config empfehlen.
Weil, selbst bei klarer Rechtslage kann keiner sicher sein was, auf dem Server am anderen Ende der Welt, wirklich gespeichert wird.
Bei mir taucht der Völkermord erst auf, wenn ich „Vö“ eingebe.
Und Schwarze sind: „schneller wegen Bauchnabel“ ist der erste Vorschlag.
Die zwei weiteren sind „Besser im Bett“ und „schneller“.
Danach kommt nur noch „sind Schwarze“, und da geht es mit „Oliven“ los.
Merkel ist:
„am Ende“
„Deutschlands Untergang“
„fertig“
„weg“
„bald weg“
„mir egal“
„erledigt“
„das Letzte“
„in ferkel“
„der Teufel“.
Keine „Volksverräterin“…
Aber mir gefallen die Vorschläge zu Merkel, finde Ich gut.
„der Teufel“, das hat was…
Bei Personen des öffentlichen Lebens, Firmen, Vereinen, Behörden etc. sollte so etwas auf gar keinen Fall zensiert werden.
Kam eben per eMail rein:
„Da unser ShiftOS auf Android basiert, sind manche Google-Apps für die Zertifizierung des Betriebssystems zwingend erforderlich. Von Google haben wir die Auflage erhalten, einige Apps durch die entsprechenden Google Varianten zu ersetzen. Dieses Vorgehen von Google finden wir sehr schade, da wir dir gerne möglichst viele googlefreie Apps als Alternativen zur Verfügung gestellt hätten. Mit dem neuen Update ist dies, auf Grund der Auflagen von Google, nun leider nicht mehr möglich.“
Gegen sowas wirkt die Auto-Vervollständigung Googles von geschriebenen Worten doch nur wie eine Spielerei von 2005. Auto-APP-Vervollständigung ist der neue, heiße Sch…!
Siebte Forderung: … ?
Haben die Kommunisten hier nichts besseres zu tun bei Netzpolitik?
Ich verstehe immer noch nicht.
Also, der Algorithmus wertet die Suchvorschläge vereinfacht nach Menge aus. Wenn viele nach „Netzpolitik ist wichtig“ googlen, schlägt der Alogrithmus „Ist wichtig“ bei Eingabe von „Netzpolitik“ vor. Wenn viele nach „Schwarze sind dumm“ suchen, schlägt der Algorithmus eben nach Eingabe von „Schwarze“ die Begriffe „sind dumm“ vor.
Gut, jetzt gibt es offenbar Menschen, die den Algorithmus für rassistisch halten, weil er die Gewichtung widerspiegelt. Darüber könnte man diskutieren.
Doch mich interessiert eher die Frage, wieso die Studie an der Stelle endet.
Wenn ich eingebe „Das Leistungsschutzrecht“ empfiehlt der Algorithmus „Lügen für das Leistungsschutzrecht“. Das ist eine Formulierung von Stefan Niggemeier. Geben ich „Verleger“ ein, vervollständigt der Algorithmus das zu „Verleger sind seriös“.
Wenn das eine Rassismus ist, dann ist das auch politische Einflussnahme und müsste ebenfalls verboten werden. Denn nach der Logik dieser Studie würden die Menschen gegenüber den LSR negativ beeinflusst und explizit nach Gegenargumenten suchen. So wie sie – nach Logik der Studie – durch Vorschlag des Algorithmus Verlage besonders positiv bewerten würden.
Wenn die Anhänger der „Google-Vorschläge sind rassistisch“-These dies so unterstützen würden, hätte ich kein Problem. Aber das tun sie nicht.
Und danach gehend, wenn ein Algorithmus – der mit reinen Zahlen hantiert – rassistisch sein kann, dann würde ich sagen, dass die Anhänger gegenüber dem Algorithmus diskriminierend sind. Wieso sind die einen Suchvorschläge rassistisch und gehören verboten, die anderen gelten aber als legal und nicht als politisch gefährliche Einflussnahme?
Dass Menschen nach rassistischen Begriffen suchen, macht eine Statistik noch nicht rassistisch. So wie ein Bericht über eine Demo gegen das LSR noch keine politische Einflussnahme darstellt.
Eine Information ist eine Information ist eine Information.
Wann wurde eigentlich wieder angefangen, den Überbringer der Nachricht für den Inhalt der Nachricht verantwortlich zu machen?
Man muss zu einer Person (Idol, Vorbild) aufschauen können und ihrer Moral vertrauen, denn sonst würde man ein moralisches Argument nicht einfach glauben. Inkonsequenz (oder im schlimmsten Fall Scheinheiligkeit) sind das Ende jedes moralischen Arguments, denn sie reduziert das Vertrauen in diese Person. Eine scheinheilige Unterscheidung legt nahe, dass nicht die Moral der Grund für das Handeln des „Vobilds“ ist.
Diese Studie ist mindestens inkonsequent („Frauen dürfen nicht wählen“ wird durchgestrichen, aber das ist Realität. Ebenso dürfen viele Menschen, Männer und Frauen, in manchen Gegenden nicht wählen.). Sie ist außerdem nicht nachvollziehbar (die Messergebnisse sind vollständig aufgelistet) und nicht reproduzierbar (Google zeigt mir nciht die Ergebnisse, die hier gezeigt wurden). Und es sind keine Autoren im PDF (oder ich habe nur nicht genug gesucht).
Nicht nur rassistische.
Porno Bilder von nackten „MUschies“ findet man rechts in der Webrleiste
wenn man nach „Bobdy paint “ sucht
zB auf google.cz
Die Videos werden bekanntlich mit Vorschaubildern angeworben,
die aber selber gar nicht im Video auftauchen.
Das gehört eigentlich verboten.
Weil grad die ja Aufsehen erregen.
Und auf a nackte Muschi klickt normal jeder drauf , oder ? ;)
Und schon läuft der Rubel….
checkt auch „Angels deserve“
die dienen aber nunmal B-)