NPP 197

Barrierefrei planen

Wie klingt netzpolitik.org für Leser:innen, die nicht sehen können? Wir haben es uns angehört, mit dem Trainer für Barrierefreiheit Domingos de Oliveira. Warum Barrierefreiheit im Netz nichts mit Nettigkeit zu tun hat und wie man zugleich geschlechtergerecht und zugänglich schreibt, das erklärt er uns in dieser Folge.

Rampe oder Treppe? Wer Zugang zur eigenen Berichterstattung schaffen will, sollte sich von Anfang an Gedanken machen. CC-BY-NC 2.0 Skinner08


Wie klingt netzpolitik.org für Menschen, die nicht sehen können? Wir haben uns das angehört, zusammen mit Domingos de Oliveira. Er ist selbst blind und arbeitet als Trainer für Barrierefreiheit. Für das Gespräch im unserem Studio hat er verschiedene Versionen von Sprachausgabe mitgebracht und wir haben uns gemeinsam die Seite vorlesen lassen.

In einigen Punkten schneiden wir dabei schon gar nicht so schlecht ab. Wir bemühen uns etwa schon seit geraumer Zeit um ordentliche Bildbeschreibungstexte. Ein besonders kniffeliges Problem wollten wir aber noch mit ihm besprechen: Nachdem wir uns Anfang des Jahres in einem Blogpost dazu erklärten, warum wir von Leser:innen, Politiker*innen oder Programmierer_innen schreiben, erreichten uns viele Hinweise auf ein Problem, das wir damit schaffen.

Die meisten Sprachausgaben – auch Text-To-Speech oder TTS genannt – interpretieren das Sternchen oder den Doppelpunkt nämlich nicht als kleine Pause im Lesefluss, sondern sprechen es aus. Beispiel: „Verlangen wir zu viel von unseren Leser Doppelpunkt innen, wenn […] wir…“

Für Blinde, die diese Programme nutzen müssen,ist das eher nervig. Wir wollten daher wissen, ob und wie sich dieses Problem lösen lässt. Schafft man es, geschlechtergerecht zu schreiben, ohne dabei die Barrieren für Menschen mit Sehbehinderungen hochzuziehen?

Die Antwort darauf und viele weitere Hinweise zur Barrierefreiheit im Netz hört ihr in unserem Gespräch mit Domingos.

Shownotes:

NPP ist der monatliche Podcast von netzpolitik.org. Ihr könnt uns auch auf Spotify abonnieren oder im Format OGG oder als mp3 herunterladen. Wie immer freuen wir uns über eure Kommentare, Wünsche und Verbesserungsvorschläge. Und wir freuen uns über Bewertungen auf den üblichen Podcast-Portalen, denn mit vielen guten Bewertungen steigt die Sichtbarkeit.

Du möchtest mehr kritische Berichterstattung?

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten.

Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

Unterstütze auch Du unsere Arbeit jetzt mit deiner Spende.

 

Unsere Arbeit bei netzpolitik.org wird fast ausschließlich durch freiwillige Spenden unserer Leserinnen und Leser finanziert. Das ermöglicht uns mit einer Redaktion von derzeit 15 Menschen viele wichtige Themen und Debatten einer digitalen Gesellschaft journalistisch zu bearbeiten.

Mit Deiner Unterstützung können wir noch mehr aufklären, viel öfter investigativ recherchieren, mehr Hintergründe liefern - und noch stärker digitale Grundrechte verteidigen!

Dann unterstütze uns hier mit einer Spende.

2 Ergänzungen
  1. Appendix A: Supported languages and voices in Narrator in Windows 10: https://support.microsoft.com/en-us/help/22805/windows-10-supported-narrator-languages-voices

    NVDA greift seit Version 2018.2 unter Windows 10 standardmäßig auf die mit Windows 10 mitgelieferten OneCore-Stimmen zu. Sollten jene nicht zur Verfügung stehen, gibt es einen Fallback auf die mit NVDA mitgelieferte eSpeak NG. NVDA lässt sich aber auch durch andere TTS-Engines (teils kommerziell und teils mit monatlichen Online-Aktivierungs-Checks) erweitern, wobei auch auf andere systemweit installierte Sprachen ggf. zugegriffen werden kann. Mehr Details hierzu sind bitte dem NVDA-Benutzerhandbuch (Kapitel 14: Unterstützte Sprachausgaben; zu finden im NVDA-Menü) zu entnehmen.

    Und sehr schade, dass nicht verschiedene TTS-Stimmen aufgezeichnet wurden bzw. mit NVDA+P bei NVDA dessen Symbollevel bzw. die Ausführlichkeitsstufe (für Interpunktionszeichen und Symbole) umgestellt worden ist, um hier einen besseren Vergleich zu erhalten. Der Beitragstext suggeriert nämlich Ersteres. Und inwieweit NVDA Dokumentformatierungen ebenfalls vorliest bzw. auf der Braillezeile ausgibt, lässt sich (in Kombination mit Konfigurationsprofilen sogar Anwendungs-spezifisch) doch recht detailliert festlegen, auch wenn’s hier noch Luft nach oben gibt. Beispielsweise ist es mit NVDA 2019.2.1 noch nicht möglich sich ausschließlich durchgestrichenen Text ansagen zu lassen, sondern man bekommt auch noch fetten, kursiven und den anderen Schmarrn mit dazu. Und schon hat man wieder einen Overkill.

    Ansonsten bot diese Episode einen netten Überblick. Würde man hier bei den einzelnen Themen nämlich noch tiefer ins Detail gehen, so würde dieser zig Stunden dauern und etliche Personengruppen mit einer Unmenge an tiefen HTML- und Programmier-Feinheiten gänzlich überfluten. Ach, und bitte verwechselt „leichte Sprache“ nicht mit „einfacher Sprache“, denn erstere ist – soweit ich informiert bin – standardisiert und darf auch nur in Zusammenarbeit mit Personen aus jener Zielgruppe gemeinsam erarbeitet bzw. verfasst werden. Bei einfacher Sprache gibt es hingegen keine strikten Regeln. In Österreich gibt es noch „leichter Lesen“, was irgendwie ein Zwischending zwischen „leichte Sprache“ und „einfache Sprache“ ist – kenne mich hier aber zu wenig aus.

    Siehe auch:
    [EN] https://www.nvaccess.org/files/nvda/documentation/userGuide.html#SupportedSpeechSynths
    [EN] https://github.com/nvaccess/nvda/wiki/ExtraVoices
    https://de.wikipedia.org/wiki/Leichte_Sprache
    https://de.wikipedia.org/wiki/Einfache_Sprache
    https://de.wikipedia.org/wiki/Leicht_Lesen

    1. Dr. Soom schreibt:
      ‚Ach, und bitte verwechselt „leichte Sprache“ nicht mit „einfacher Sprache“, denn erstere ist – soweit ich informiert bin – standardisiert und darf auch nur in Zusammenarbeit mit Personen aus jener Zielgruppe gemeinsam erarbeitet bzw. verfasst werden. Bei einfacher Sprache gibt es hingegen keine strikten Regeln. In Österreich gibt es noch „leichter Lesen“, was irgendwie ein Zwischending zwischen „leichte Sprache“ und „einfache Sprache“ ist – ‚

      Das stimmt nicht ganz. Für leichte Sprache gibt es zwar eine Menge Regeln. Auch der Duden hat dazu ein dickes Buch verfasst. Geschützt ist dieser Begriff aber nicht, d. h. es kann jeder und jede leichte Sprache nennen, was sie oder er will. Erfahrungsgemäß werden die Übersetzungen allerdings wirklich an Menschen mit Lernbehinderung getestet, was auf jeden fall vernünftig ist.

      „leicht lesen“ stammt von capito aus Österreich (siehe https://www.capito.eu/), mittlerweile ist es auch in Deutschland verbreitet. Das Prinzip: (vor allem) Behördentexte in die unteren Sprachstufen des europäischen Referenzrahmens übersetzen, also A1, A2 und B1, und das Ganze über eine App anbieten. Anders als leichte Sprache diskriminiert dieses System nicht, weil keiner sieht, zu welcher Sprachsstufe die Leserin oder der Leser greift. Auch capito testet die Übersetzungen an der jeweiligen Zielgruppe.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.