Digitale Barrierefreiheit muss nachvollziehbaren Standards folgen.
Die WCAG in der aktuellen Version 2.1 ist dieser Standard.
Das ist klar und (hoffentlich) Konsens.
Aber sie darf nicht nur eine Anleitung für Prüfer und eine Genugtuung für Freunde der Paragrapen sein, sondern muss auch für diejenigen, die sie umsetzen müssen, praktikabel und verständlich sein.
Denn schließlich muss sie zu Gunsten der Zielgruppe umgesetzt werden können.
Das bedeutet für mich im Alltag einer komplexen Website zum Beispiel auch: Ich als Website-Manager, meine Redakteure und meine Autoren brauchen ein tägliches, individualisierbares Monitoring über das was auf der Site geschieht. Und zwar auf allen Seiten & Dokumenten.
Ein menschlicher Prüfer hingegen, der auf Basis von WCAG-EM erstmal versucht eine Stichprobe zu finden und dann mehrere Tage für Tests braucht -während gleichzeitig die Website wieder geändert wird- und dafür dann einen höheren Eurobetrag in Rechnung stellt, ist für diesen Zweck sinnlos.
So ein Prüfbericht hat daher keinen praktischen Zweck. Der Zweck besteht daher IMHO nur in drei Punkten:
- Vorbeugende Abwehrmaßnahme gegen Klagen Betroffener.
- Marketing (Anmerkung: Das für manche (via Prozentwert per Gießkanne ausgewählte) Öffentliche Stellen durchgeführte Monitoring, ordne ich aus nicht öffentlichen Gründen dem Marketing zu)
- Abnahme von Agenturarbeit.
Was bedeutet dies nun für den Alltag?
Im Alltag funktioniert nur ein automatisierbares Monitoring.
Dieses muss abhängig von der Rollen der Bearbeiter der Website sein. Bedeutet zum Beispiel:
- Ein Autor, der keinerlei Rechte hat, das Corporate Design, HTML oder CSS zu ändern, muss verschont bleiben von Fehlerlisten eines Validators. Diese irritieren ihn nur und er kann nichts daran ändern.
- Ein Webmaster hingegen, der eben für das HTML und das CSS zuständig ist, braucht wiederum keine Details darüber, wo ein Autor in einer Seite sich nicht an die korrekte Taxonomie hielt oder in einem Textabschnitt einen anderssprachigen Text nicht ausreichend deklarierte.
- Ein Redakteur hingegen braucht Informationen des Autors, aber nicht die technisch bezogenen Angaben für den Webmaster. Ein Redakteur bräuchte aber zum Beispiel ausgehend von einem ausgewählten etablierten Testverfahren der Linguistik eine Aussage über die Leseschwierigkeit von Texten.
- Letzteres hat wiederum Relevanz für den (bei komplexe Websites nicht zu vergessenenden) SEO-Optimierer, der ja gern im Rahmen der redaktionellen Kontrolle Texte nochmal „optimiert“.
Für jeden der oben genannten Rollen (und weiterer Rollen, die es bei komplexen Websites gibt) muss das Monitoring ein quasi „Live-Bericht“ geben. Dieser Live-Bericht muss dabei allerdings selbst auch weitestgehend zugänglich sein!
Es gibt hierzu bereits Angebote von Firmen, von Online-Tools und auch CMS-Plugins, die dem ganzen nahe kommen und Websites, aber auch Teile davon testen können. (Ich möchte aber jetzt hier keine Werbung machen, daher ausnahmsweise keine Links in dieser Sache).
Wünschenswert wäre aber auch hier eine Standardisierung der Testergebnisse in einem maschinell interpretierbaren Format. Und hierzu gibt es tatsächlich schon erste Ansätze in Form des WCAG ACT Rules Format.
Gleichwohl kennt dieses Format (wenn ich es nicht überlesen hab) noch keine Zuordbarkeit der Rollen der Empfänger der Testergebnisse. Da es aber sowieso momentan nur ein früher Draft ist, sollte sich hier vielleicht noch einiges tun.
Es bleibt spannend.
Zusammenfassung
Nochmal meine Kernpunkte hervorgehoben:
- WCAG-Tests einer Website müssen ebenfalls barrierefrei und zielgruppenbezogen sein. Sie müssen sich an die Personen und deren Rollen orientieren, die für die Umsetzung zuständig sind.
- Die Tests müssen soweit möglich zeitnah, wenn nicht sogar automatisiert während des Eintippens eines Beitrags im Editor erfolgen können. Testergebnisse sind ebenfalls Teil der redaktionellen Kontrolle.
- Testergebnisse sollten über definierte Standards übertragbar sein.
- Rein formelle Prüfungen durch menschliche Tester können derzeit nur einen bestimmten statischen Zeitabschnitt berücksichtigen. Sie helfen daher bei der praktischem Umsetzung nur unvollständig und dienen anderen Zwecken.
Soviel ich deinen Ideen hier tatsächlich abgewinnen kann, so wenig verstehe ich die meines Erachtens nach unangebrachten und grundlos gefärbten Seitenhiebe auf menschliche Prüfer. Als würden sich automatisierte und manuelle Tests gegenseitig ausschließen oder ersetzen können. Ich kann dir gerne bei Gelegenheit — aber weder hier, noch in unser beider Urlaub ? — darlegen, was ein*e Prüfer*in liefern kann und ein automatisierter Test nicht. Und das sogar ohne Widerspruch zu deinem obigen Wunschzettel.
Damit kein Mißverständnis aufkommt: Die Tester, die ich kenne und mit denen ich in der Vergangenheit oft in verschiedenen Gelegenheiten zusammenarbeitete, respektiere ich sehr und ich stehe zu ihnen in einem (hoffentlich auch von der Gegenseite so gesehen) freundschaftlichen Verhältnis.
Meine Kritik ist rein auf die Sache bezogen. NIcht auf Personen.
Obwohl, nein, das stimmt so ganz nicht: Wenn es um die Zertifikate geht, die derzeit von großen Firmen, wie bspw. der Telekom, ausgestellt werden, dann kritisiere ich nicht allein das Verfahren, sondern auch die Firmen, die mEn das Thema ausnutzen um Geld zu machen.
Und natürlich hab ich mehrere Tests bereits gesehen und auch selbst beauftragt. So gaaaanz Neu in dem Thema bin ich ja nun auch nicht, oder glaubst du das? :)
Ich hab aber bislang keinen Test gesehen -weder einen von denen, die ich selbst beauftragte (dabei zwei sehr bekannte Leute auf dem Gebiet), noch einen den ich über Arbeitskollegen zu Gesicht bekam (wieder von anderen Testern mit bekannten Namen), welche auf den Daily Business und die o.g. Zielgruppen eingehen.
Wie gesagt: Deine Ideen zur Ausgestaltung und Gliederung der Prüfberichte, zur Standardisierung der Ergebnisdokumentation und zur parallelen, ständigen und maschinellen Unterstützung finde ich gut. Lediglich die menschlichen Prüfer kamen gefühlt schlecht weg — was sich aber durch deine Ergänzung geklärt hat. Danke!