Barrierefreiheit mit und ohne Neurodiversität

Und noch was Nettes zum Wegblockieren. Dazu mein Kommentar: Die beste Barrierefreiheit ist unsichtbar]

Keine Appearance-Toolbar auf der englischsprachigen wikipedia

Auf der englischsprachigen Wikipedia befindet sich über dem Inhalt eines Artikels eine Toolbar, um die Schriftgröße anzupassen. Das ist seit bald 20 Jahren nicht mehr notwendig und reines Virtue Signalling.

  • Kein Mehrwert: Sehbehinderte nutzen ins System integrierte Lesehilfen, und auch Silver-Surfern schadet es nicht, sich unabhängig von der Wikipedia beim besseren Lesen behelfen zu können.
  • Schaden: Alle anderen nervt es, mich übrigens auch. Ich muss immer zuerst an dieser dummen Toolbar vorbeinavigieren, bis der Inhalt kommt. Da kann ich fast schon nachvollziehen, dass die Republicans gerade Stunk gegen Wikipedia machen.

Mit uBlock Origin lässt sich diese Toolbar ganz einfach wegräumen, und zwar mit dieser Zeile:

en.wikipedia.org##.vector-appearance-landmark
  1. Diese Zeile ins uBlock-Dashboard unter Meine Filter einfügen
  2. Änderungen übernehmen
  3. Artikel zu „The Big Bang Theory“ öffnen und ohne Appearance-Toolbar lesen
1 „Gefällt mir“

Noch etwas, das sich für die Anliegen der Barrierefreiheit positiv werten lässt: Einige Anbieter für digitale Barrierefreiheit wurden erfolgreich verklagt, weil sie grob falsche und an Scam grenzende Versprechungen gegenüber ihren Unternehmenskunden gemacht haben.

Sinngemäß bauen solche Anbieter dem Kunden ein Overlay in seine Website ein, das die Website augenblicklich und mühelos rechtskonform und barrierefrei machen soll. Dabei ist oft nicht mal das Overlay barrierefrei, ganz zu schweigen von der Website. Ach, und natürlich alles bequem mit KI, so wie es sich heute gehört. So braucht sich niemand mit dem Thema beschäftigen und hat das Rechtsrisiko vermeintlich abgewälzt.

Solche Anbieter schaden sowohl ihren Kunden als auch uns Betroffenen. Von daher bin ich gerade tatsächlich froh darüber, dass einige endlich mal eins auf den Deckel bekommen haben und nicht immer nur selbst klagen, so als Präzedenzfall. :adxs_aufsmaul:

1 „Gefällt mir“

Ah frei nach dem Motto: Softwarefehler, da kann man nix machen. Das ist fast ein bisschen das Grundgefühl unserer Zeit: bloß keine Verantwortung übernehmen. „Ich war es nicht, das war die Maschine“ :roll_eyes: Ja, neee… is klar. :face_with_symbols_on_mouth:

2 „Gefällt mir“

Ja genau. Und dabei das Thema so sehr als unüberwindliche komplexe Hürde verkaufen, es darf nicht zu niederschwellig sein. :roll_eyes: Und stimmt, dass man selbst auf die Probleme keinen direkten Einfluss mehr hat, entlastet natürlich auch sehr angenehm. Das ist die Krankheit der heutigen Zeit: zu viel Indirektionsebenen, zu geringer Einfluss im eigenen Bereich, Verantwortungsdiffusion.

Gut ist, dass die FTC in den USA einigen dieser Anbieter klar attestiert, dass sie das Rechtsrisiko eben nicht wie versprochen beseitigen, also dass ihre Kunden viel Geld für gar nichts ausgeben. Bei dem Argument brauchst du die Betroffenen gar nicht mit einbeziehen, sondern kannst das allein aus dem Blick der Rechtsabteilung irgendeiner Firma betrachten, die den Digitalkram der Firma rechtskonform machen soll. Solche Abteilungen arbeiten die Checkliste „Was muss die Firma tun um nicht von bösen Behinderten oder zwielichtigen Abwälten abgemahnt zu werden?“ ab. Einige Overlay-Anbieter erfüllen laut FTC ihre versprochene Leistung (Rechtskonformität) nicht → False Claim.

Traurig ist, dass es solche Argumente braucht, wo der Unsinn inhaltlich schon seit Jahren kritisiert wird.

1 „Gefällt mir“

Die Idee aus dem anderen Thread, Teetassen für Kategorien der Barrierefreiheit zu verleihen aufgreifend, mache ich einmal den Anfang. Da ich keine Perfektion predigen will, sondern Erfolg in kleinen Schritten, wird das auch die Auswahl prägen.

Eine Teetasse :teacup_without_handle: erhält Discourse für Responsivität und pragmatisches Handeln. :drum:

  1. Vollzitat im Editor kam mit dem letzten Update wieder zurück.
  2. Mein per Email gemachter Vorschlag, simple Formatierungsknöpfe teilweise in versteckbare Bereiche auszulagern, wurde zur Kenntnis genommen (nicht selbstverständlich).
  3. Buttons unter den Beiträgen und in der Toolbar des Editor haben jetzt sinnvollere Auszeichnungen bekommen, sodass die Beschriftungen effizienter vorgelesen werden. Vorher wurden die Icons mit vorgelesen, weshalb bei einigen Buttons vor der eigentlichen Bezeichnung „Image, Zero with space“ kam, was relativ umständlich und nervig war.

Jeder Schritt in die richtige Richtung zählt. :four_leaf_clover:

3 „Gefällt mir“

Wie Alarme auf dem SmartPhone (nicht) sinnvoll umgesetzt werden

Definition: Ein Alarm ist ein akustisches Warnsignal, das auf eine akute drohende Gefahr hinweisen soll, damit Menschen in der nähe Sicherheitsmaßnahmen ergreifen können. Hier ist eine anschauliche Darstellung einer klassischen Alarmsituation:

So, jetzt wissen alle Bescheid.

Neuerdings dürfen auch Smartphones als Lautsprecher für das akustische Warnsignal dienen und bringen das Signal direkt zu den Nutzern. Die Informationen zur Gefahrensituation werden via Mobilfunknetz gebroadcastet, so bekommen die Telefone es mit und aktivieren ihren sehr lauten Alarm. Das könnte sinnvoll sein, ist aber zumindest unter iOS sehr undurchdacht und nicht barrierefrei umgesetzt worden. Mal wieder Lastenhefte statt Workflows umgesetzt und die technischen Möglichkeiten nicht zielführend genutzt.

Eine zweckdienliche menschliche Reaktion auf einen Alarm teile ich hier in zwei Phasen ein:

  1. Aufmerksamkeit lenken: Der Alarm muss unbedingt auf sich aufmerksam machen, wenn eine akute Gefahr droht wie z.B. ein Hausbrand.
  2. Zielführende Intervention: Der Mensch braucht all seine mentalen Ressourcen und adäquate Informationen über die Bedrohungslage, um angemessen auf die Situation zu reagieren.

Das bedeutet: In Phase 1 ist ein durchdringender Sirenenton angemessen, in Phase 2 aber kontraproduktiv. In iOS sind die Alarme nicht in diesen zwei Phasen implementiert, sondern gleichzeitig werden der extrem laute Warnton abgespielt und die Informationen zur Alarmsituation angezeigt. Bei dem Versuch, die Hinweise zu lesen und das eigene Handeln zu planen wird der eigene Sympathicus weiterhin mit diesem nervenzerfetzenden Ton in Panik versetzt. Durch Wegklicken der Warnung verstummt der Ton, aber auch die Infos verschwinden und sind nicht ohne Weiteres nachlesbar. Die Phasen sind also simultan implementiert, nicht sequentiell. Der sequentielle Modus wäre bei traditionellen Alarmanlagen nicht sinnvoll umsetzbar, mit persönlichen Geräten hingegen durchaus.

  1. Sobald der Nutzer mit dem lärmenden Smartphone interagiert, sollte der Ton verstummen. Er hat seinen Zweck aus Phase 1 erfüllt (Aufmerksamkeit erregen).
  2. Die Hinweise sollten sichtbar bleiben, damit Infos schnell und ungestört nachzulesen sind. Es sollte auch nach dem Wegklicken möglich sein, die Infos wieder anzuzeigen.

Ein weiteres blindenspezifisches Problem ist, dass der Alarmton die Sprachausgabe übertönt und Audio-Ducking nicht greift. Alles übrige Audiozeug wird gedimmt, während die Sprachausgabe redet. Nur für den Alarmton gilt das nicht. Während der Alarm aktiv ist, kann ich die Infos nicht lesen und bekomme es nur mit großer Mühe hin, ihn abzuwürgen. Aber dann sind wie oben beschrieben auch die Infos weg.

Dafür gibt es keine Teetasse, sondern eher Heiße Luft oder etwas in der Richtung. :wind_face:

Um nicht zusätzlich Angst vor meinem Smartphone zu bekommen (Das ist eine intime Beziehung), werde ich wohl über Nacht in den Flugmodus gehen müssen, um nicht von Probealarmen geweckt und erschreckt zu werden.

2 „Gefällt mir“

Gerade habe ich einen Artikel über eine „kostenfreie KI-Stimme“ gelesen. Könnte das interessant sein für weitere Entwicklungen? https://www.thorsten-voice.de/

3 „Gefällt mir“

Hello,
Ich bin da heute über etwas ganz anderes gestolpert

OK, gehöre ich ja ohnehin zu der eher skeptischen Sorte, aber…

Ich weiß auch nicht, ob es hier hilfreich ist, aber ich wollte es mal geäußert haben
:adxs_byebye:

Eine knuffige Idee, das Projekt. Nur muss ich beim Anhören unweigerlich an Badesalz denken. Keine Ahnung, ob das ein guudes Zeichen ist. :wink: Ich meine, der Synchronschauspieler und Sprecher Andreas Fröhlich hat auch seine Stimme „gespendet“, aber ich finde sie nicht mehr.

In der Accessibility-Branche ist das ein ziemliches Thema, viele haben jetzt KI im Portfolio. Was mich allerdings ärgert: Eine dieser Firmen hat meine Lieblingsstimme für den Mac produziert und vor ein paar Jahren den Support eingestellt. Sie läuft noch, aber wer weiß, wie lange noch. Dafür ist die Produktpalette jetzt voll mit B2B-Angeboten, natürlich mit KI. Für den quelloffenen Windows-Screenreader NVDA gibt es die Stimmen offenbar noch. Meine „Needs“ eines Endnutzers werden leider nicht von der „wide range of solutions“ answered.

Bisschen frischer Wind in dem Bereich ist also auf jeden Fall zu begrüßen, um nicht alles den Business-Platzhirschen zu überlassen. KI-Stimmen haben natürlich den interessanten Vorteil, dass man vergleichsweise schnell zu einer Stimme gelangt, die relativ nuanciert klingt. Dieses kleinteilige Aufnehmen von Phonemen wie früher ist dagegen schon ziemlich aufwändig.

Wo ich allerdings etwas Bedenken habe, ist die Performance. Für hin und wieder eine freundliche Ansage ist das sicher ausreichend. Aber wenn Blinde mit dem Screenreader am Computer navigieren, wird die Stimme oft sehr schnell eingestellt und muss mit extrem geringer Latenz reagieren. Latenz ist die Pause zwischen einem Tastendruck und dem Zeitpunkt, wo die Stimme zu sprechen beginnt. Also wenn du z.B. das Menü aufmachst, dich mit Tastaturshortcuts durchpflügst oder einen Text querliest, hörst du immer nur die ersten paar Millisekunden und nicht den ganzen Spruch und unterbrichst ihn sofort wieder. Geruhsames Vorlesen und vollendeter Satzmelodie steht da weniger im Vordergrund. Von meinen Lieblingsstimmen die Windows-Version hat sogar Colibri-Varianten, die besonders effizient sind mit niedriger Latenz, dafür klanglich etwas abgespeckt. Glaub ich muss bei der nächsten Coding-Aufgabe mal den Ton mitschneiden.

Leider ist mir die Installation bislang noch nicht gelungen, muss mich da nochmal dahinterklemmen. Webseite fühlt sich auch etwas zu lahm an für heutige Verhältnisse, bisschen wie bei Mastodon. Da sollte ich vielleicht nochmal meine Superheldendienstleistung anbieten. Neben die Shell-Komandos wären z.B. Kopierknöpfe nice, und ich glaube, irgendein Schritt fehlt in der Anleitung. Aber so ist das mit der IT: Wir haben unterschiedliche Schwerpunkte und Kompetenzen.

Auf jeden Fall werde ich das Projekt mal aufmerksam verfolgen, Danke dir für den Tipp. :+1:

3 „Gefällt mir“

Bevor ich mich diesem medialen Schrei widme, drängt sich mir da doch die Frage auf, wie ein LLM überhaupt so etwas wie eine Absicht haben soll. Medienhirnis projizieren da viel zu vieles rein an menschlichen Eigenschaften, und dann kommt der große Schrei. Überraschung, Katastrophe, unglaublich, wer hätte das gedacht …

Für Dinge wie Schummeln, Lügen und Betrügen (Blaubärs drei Fächer auf der Lügenboldschule) braucht es so etwas wie eine Theory of Mind (TOM), also die Erkenntnis, dass deine Gedanken nicht die meinen sind, und dass ich diese deine Gedanken böswillig zu meinem Vorteil beeinflussen kann. Dazu gehört auch die Erkenntnis, dass Menschen fehlinformiert sein können und nicht zwangsläufig die Wahrheit kennen, nur weil ich sie kenne. Normalerweise kriegen Kinder ca mit vier Jahren das heraus. Das wird z.B. mit dieser kleinen Geschichte getestet:

Ein LLM hat keine TOM, keine Absicht und keine Ahnung von den Absichten anderer. Dass ein LLM macht, was funktioniert, und dass es solche Lügenmanöver aus genug Trainingsdaten abgelesen hat, ist nicht überraschend, sondern zu erwarten. Wie bitte soll das eine leichte Aufgabe sein, einem LLM das sozialkognitive High-Level-Konzept Ehrlichkeit einzudrömmeln?

Sorry, wenn das jetzt gerade sehr harsch rauskam, aber diese Schreiberlinge gehen mir mittlerweile echt auf den Sack.

2 „Gefällt mir“

Dieses unterfangen wird nicht immer durch Sprachausgaben vereitelt, sondern auch oft durch zu gesprächige Webseiten, die sich für barrierefrei halten. :wink:

Wenn ich bei diesem Podcast durch die Epilsodenliste von Überschrift zu Überschrift springe, bekomme ich die Bestandteile in folgender Reihenfolge vorgelesen:

  1. Ausführliche Bildbeschreibung für das Stockfoto, oder was auch immer die da verwenden
  2. Erscheinungsdatum
  3. Titel der Episode
  4. Beschreibung

Die Bilder werden lächerlich ausführlich beschrieben, schnelles Querlesen ist so praktisch unmöglich. Mich interessieren die Angaben mit folgender absteigender Priorität:

  1. Titel
  2. Beschreibung
  3. Erscheinungsdatum
  4. Bildbeschreibung könnte eigentlich auch weggelassen werden, da die Bilder nur dekorative Teaser sind und kaum Information von Mehrwert enthalten.

Ihr müsst euch nicht die ganze Aufnahme antun, aber nur so viel zum Querlesen.

Ein Artikel über Barrierefreiheit für Menschen mit ADHS, den ich euch nicht vorenthalten will:

Die Einbindung der Torsten-Stimme in einen Screenreader ist leider alles andere als idiotensicher. Für den Screenreader NVDA gibt es einen Ansatz, aber man muss z.B. die Samplerate richtig einstellen und solche Sachen, also schon abenteuerlich.

Bei iOS und macOS gibt es seit 2020 eine neue Schnittstelle für Sprachausgaben. Bei dem Versuch, dafür einen Synthesizer zu implementieren, der Torsten nutzt, sind uns dort so viele Stolperer und Bugs begegnet, dass wir den Verdacht hegen, dass die Apple-Leute den Kram nur so weit fertiggestellt hatten, um bei der WWDC ihre Demo vorführen zu können und sich als Helden der Barrierefreiheit zu inszenieren. Danach wurde das Zeug vernachlässigt, Probleme nicht behoben und mehr Probleme haben sich eingeschlichen. Nicht mal das Hallo-Welt-Beispiel funktioniert mehr auf Anhieb unter macOS. Wahrscheinlich müssen wir das uralte Beispiel wieder ausgraben, das noch die alte Schnittstelle nutzt und einen Synthesizer darstellt, der Sprache in Morsepiepsern ausgibt. Vielleicht schlummert das noch im Internet Archive. Jedenfalls waren wir nicht sehr erfolgreich damit, Torsten dort zu integrieren.

Ein weiteres generelles Problem bei KI-Stimmen und Screenreader ist nicht nur die Latenz, sondern auch der Mangel an Determinismus. KI-Modelle sind ja eine Blackbox, ein nichtlineares Modell. Schon ein verändertes Zeichen kann dazu führen, dass ein Wort völlig anders betont und ausgesprochen wird, oder dass das selbe Wort anders klingt, weil es in einem Satz woanders steht. Als Screenreader brauche ich eine starke Korrelation zwischen Klang und Schreibweise, damit man es als lesen bezeichnen kann.

  • Gleich geschriebene Wörter sollten möglichst immer gleich klingen.
  • Ich will direkt vom Klang auf die Schreibweise schließen können, nachdem ich etwas mit einer Stimme geübt habe.

Ich kann mir z.B. Namen und Fachbegriffe viel besser merken, wenn ich ihre genaue Schreibweise kenne, sonst wird es nur als etwas schwammiges Gehörtes abgespeichert. Bis heute bin ich mir unsicher beim Namen meiner Psychiaterin, weil die keinen Allerweltsnamen hat und nicht im Internet auf der Webseite der Klinik etc. auftaucht. Daher bin ich persönlich auch kein großer Fan von Tech-Videos, weil ich bei einem gesprochenen Begriff, der mir neu ist, nicht unbedingt die Schreibweise zuverlässig heraushören kann. Bei guten Screenreaderstimmen geht das aber. Das bringt natürlich eine gewisse Monotonie mit sich, und die ist das Gegenteil von dem, was Entwickler von KI-Stimmen im Fokus haben. Diese Zufälligkeit und Nichtlinearität im Zusammenhang von Schrift und Klang macht den Eindruck vielleicht sogar auf eine gewisse Art natürlicher. Die Haussteuerung oder das Assistenzsystem klingen damit vielleicht freundlicher und nahbarer. Für produktive Screenreadernutzung ist das eher hinderlich.

Manchmal wünsche ich mir die Zeit zurück, in der alles noch Tasten hatte. Es nervt mich, dass heute so viel gewischt und getoucht wird, und dass Touch-Bedienkonzepte wie z.B. Hover-Effekte sich überall einschleichen. Fuck you, Mobile First! Das Videoprogramm OBS Studio, mit dem ich Videos über Barrierefreiheit aufnehmen soll, hat zu viele Barrieren und zu viel Mausbedienung. Bei Produktivsoftware muss ich genau wissen, was ich tue und will nicht auf gut Glück herumprobieren. Also muss ich wohl zu Camtasia zurück, auch wenn das ein bisschen was kostet.

Gegen Ende meiner Grundschulzeit gab es eine Phase, in der alle plötzlich Nokia-Handys hatten und in der jeder einen personalisierten Klingelton wollte. Ich finde, die alten homophonen Sounds hatten schon was, mit den polyphonen wurde es irgendwie doof, zu sehr wannabe-Musik. So was muss so schlecht sein, damit es wieder gut wird. Jedenfalls gab es bei den alten Varianten auch einen Composer-Modus, und ich war im Bekanntenkreis dafür zuständig, die persönlich gewünschten Klingeltöne bzw. Lieder einzugeben. Eine Bekannte von mir wollte z.B. „My bony is over the ocean“, wobei ich mir erlaubt hatte, jede Menge Verzierungen und Triller einzubauen.

Als dann später Spiele hinzukamen, und die Nokias so etwas wie ein Gameboy-Ersatz für viele wurde, fand ich die Dinger doof, genau wie Gameboys. Lauter Snake-Zombys um einen herum, und man selbst kann nicht mal mit zum Zomby werden.

Nach längerem Suchen habe ich tatsächlich ein Midi-Soundfont gefunden, das diesem Nokia-Klang nachempfunden ist. Also gleich ans Werk gemacht:

  1. Lied in Lilipond setzen und als Midi ausgeben
  2. Mit Timidity das Midi zu Audio konvertieren
  3. Mit ffmpeg die unkomprimierte Audio-Datei in komprimiertes MP3 umwandeln

Hier ist das Ergebnis, leider wird es etwas leise ausgegeben. Trotzdem viel Spaß damit.

3 „Gefällt mir“

Zum Thema digitale Barrierefreiheit:

3 „Gefällt mir“

Ah, dann haben sich die Chaosleute das auch mal vorgenommen. Ich verfolge die Medien nicht immer so genau, weil ich die Inhalte ja schon kenne. Was ich bisher gehört habe, steht auch in meinen Skripten, die ich noch in Videohäppchen aufnehmen muss. Das mit der Teilhabe und UN-BRK kommt z.B. auch. Finde jedenfalls gut, dass die darauf abheben, dass das eigentlich kein weirdes Außenseiterthema ist, sondern uns gesellschaftlich betrifft und in ganz viele Alltagsbereiche einfließt.

Werde den Talk gleich beim Kochen weiterhören. Wirkt für mich aber sogar eher interessant als Infotainment für privat Interessierte. Für Entwickler und Entscheider muss es knackig und auf den Punkt sein in der Umsetzung. Mit dem Inhalt bin ich aber bisher zufrieden. :wink:

1 „Gefällt mir“

Mein erstes Video ist online und darf gerne promotet werden. Der erste Spike fällt ins Gewicht. Also selbst wenn ihr nicht die Zielgruppe seid, gerne draufklicken für den Algo.

Ich habe so was bisher noch nie gemacht, brauche noch viel Übung.

5 „Gefällt mir“

:adxs_friends:
Jetzt weiß ich wie du klingst…

2 „Gefällt mir“

Und nicht die Flucht ergriffen, sehr gut. :joy:

Langsam gewöhn ich mich an die eigene STimme, finde das eine echte Challenge.

Mein Partner freut sich, weil er jetzt eine Möglichkeit hat, jederzeit heimlich meine Stimme zu hören. :rofl:

3 „Gefällt mir“

Hab direkt mal kommentiert und gefolgt.
Ich wusste nicht, was ich schreiben soll, also habe ich einfach nach einem weiteren Video gefragt. Damit kann man ja unter einem YouTube Video nix verkehrt machen.

Ich finde das Video sehr gelungen! Ich stehe zwar nicht im Stoff aber ich kann mir die Bedeutung der Begriffe herleiten und verstehen, was du meinst. Ich bin ja aber auch nicht die Zielgruppe. Da geht man davon aus, dass die wissen, was z.B. mit Abstraktion gemeint ist.

3 „Gefällt mir“

Danke dir, haste richtig gemacht. :wink:

Der Wunsch nach Negativbeispielen bzw. Real-World-Beispielen wurde mir auch schon von einem uns bekannten Entwickler zugetragen.

2 „Gefällt mir“