-
5 Allgemeine Anforderungen
- 5.2
- Aktivierung von Barrierefreiheitsfunktionen
- 5.3
- Biometrie
- 5.4
- Erhaltung von Barrierefreiheitsinformationen während der Umwandlung
- 5.5.1
- Möglichkeiten der Bedienung
- 5.5.2
- Unterscheidbarkeit der bedienbaren Elemente
- 5.6.1
- Taktiler oder auditiver Status
- 5.6.2
- Visueller Status
- 5.7
- Tastenwiederholung
- 5.8
- Annahme eines zweifachen Tastenanschlags
- 5.9
- Gleichzeitige Benutzerhandlungen
-
6 Zwei-Wege-Sprachkommunikation
- 6.1
- Audiobandbreite für Sprache
- 6.2.1.1
- RTT Kommunikation
- 6.2.1.2
- Gleichzeitige Verwendung von Sprache und Text
- 6.2.2.1
- Visuell unterscheidbare Darstellung
- 6.2.2.2
- Durch Software bestimmbare Sende- und Empfangsrichtung
- 6.2.2.3
- Sprecheridentifizierung
- 6.2.2.4
- Visuelle Anzeige von Audio mittels RTT
- 6.2.3
- Interoperabilität
- 6.2.4
- Reaktionsfähigkeit von RTT
- 6.3
- Anruferkennung
- 6.4
- Alternativen zu sprachbasierten Diensten
- 6.5.2
- Auflösung
- 6.5.3
- Bildfrequenz
- 6.5.4
- Synchronisation zwischen Audio und Video
- 6.5.5
- Visueller Anzeiger von Audio bei Video
- 6.5.6
- Sprecheridentifizierung mittels Video- (Gebärdensprach-)Kommunikation
-
7 Videofähigkeiten
- 7.1.1
- Wiedergabe der Untertitelung
- 7.1.2
- Synchronisation der Untertitelung
- 7.1.3
- Erhaltung der Untertitelung
- 7.1.4
- Eigenschaften von Untertiteln
- 7.1.5
- Gesprochene Untertitel
- 7.2.1
- Wiedergabe der Audiodeskription
- 7.2.2
- Synchronisation der Audiodeskription
- 7.2.3
- Erhaltung der Audiodeskription
- 7.3
- Bedienelemente für Untertitel und Audiodeskription
-
11.1.1 Textalternativen
- 11.1.1.1a
- Nicht-Text-Inhalt – Bedienelemente
- 11.1.1.1b
- Nicht-Text-Inhalt – Grafiken und Objekte
- 11.1.1.1c
- Nicht-Text-Inhalt – CAPTCHAs
-
11.1.2 Zeitbasierte Medien
- 11.1.2.1
- Reines Audio und reines Video (aufgezeichnet)
- 11.1.2.2
- Untertitel (aufgezeichnet)
- 11.1.2.3
- Audiodeskription oder Medienalternative (aufgezeichnet)
- 11.1.2.4
- Untertitel (live)
- 11.1.2.5
- Audiodeskription (aufgezeichnet)
-
11.1.3 Anpassbar
- 11.1.3.1a
- Info und Beziehungen – Überschriften
- 11.1.3.1c
- Info und Beziehungen – Text
- 11.1.3.1b
- Info und Beziehungen – Tabellen
- 11.1.3.1d
- Info und Beziehungen – Formularelemente
- 11.1.3.2
- Bedeutungsvolle Reihenfolge
- 11.1.3.3
- Sensorische Eigenschaften
- 11.1.3.4
- Ausrichtung
- 11.1.3.5
- Eingabezweck bestimmen
-
11.1.4 Unterscheidbar
- 11.1.4.1
- Benutzung von Farbe
- 11.1.4.2
- Audio-Steuerelement
- 11.1.4.3
- Kontrast (Minimum)
- 11.1.4.4
- Textgröße ändern
- 11.1.4.5
- Bilder von Text
- 11.1.4.10
- Automatischer Umbruch (Reflow)
- 11.1.4.11
- Nicht-Text-Kontrast
- 11.1.4.12
- Textabstand
- 11.1.4.13
- Eingeblendeter Inhalt bei Darüberschweben (Hover) oder Fokus
-
11.2.1 Tastaturbedienbar
- 11.2.1.1
- Tastatur
- 11.2.1.2
- Keine Tastaturfalle
- 11.2.1.4
- Tastaturkürzel
-
11.2.2 Ausreichend Zeit
- 11.2.2.1
- Zeitvorgaben anpassbar
- 11.2.2.2
- Pausieren, stoppen, ausblenden
-
11.2.3 Anfälle
-
11.2.4 Navigierbar
- 11.2.4.3
- Fokus-Reihenfolge
- 11.2.4.4
- Linkzweck (im Kontext)
- 11.2.4.6
- Überschriften und Beschriftungen (Labels)
- 11.2.4.7
- Fokus sichtbar
-
11.2.5 Eingabemodalitäten
- 11.2.5.1
- Zeigergesten
- 11.2.5.2
- Abbruch der Zeigeraktion
- 11.2.5.3
- Beschriftung (Label) im Namen
- 11.2.5.4
- Betätigung durch Bewegung
-
11.3.1 Lesbar
- 11.3.1.1
- Sprache der Software
-
11.3.2 Vorhersehbar
- 11.3.2.1
- Bei Fokus
- 11.3.2.2
- Bei Eingabe
-
11.3.3 Eingabeunterstützung
- 11.3.3.1
- Fehlerkennzeichnung
- 11.3.3.2
- Beschriftungen (Labels) oder Anweisungen
- 11.3.3.3
- Vorschlag bei Fehler
- 11.3.3.4
- Fehlervermeidung (rechtlich, finanziell, Daten)
-
11.4.1 Kompatibel
- 11.4.1.1
- Syntaxanalyse
- 11.4.1.2
- Name, Rolle, Wert
- 11.4.1.3
- Statusmeldungen
-
11.5 Barrierefreiheitsdienste
- 11.5.2.3
- Verwendung von Barrierefreiheitsdiensten
- 11.5.2.5
- Objektinformationen
- 11.5.2.6
- Zeile, Spalte und Kopfzeilen
- 11.5.2.7
- Werte
- 11.5.2.8
- Label-Beziehungen
- 11.5.2.9
- Eltern-Kind-Beziehungen
- 11.5.2.10
- Text
- 11.5.2.11
- Liste der verfügbaren Handlungen
- 11.5.2.12
- Ausführung der verfügbaren Handlungen
- 11.5.2.13
- Nachverfolgung des Fokus und der Auswahlattribute
- 11.5.2.14
- Änderung des Fokus und der Auswahlattribute
- 11.5.2.15
- Änderungsbenachrichtigung
- 11.5.2.16
- Änderungen von Zuständen und Eigenschaften
- 11.5.2.17
- Änderungen von Werten und Text
-
11.6 Barrierefreiheitsfunktionen
-
11.7 Benutzerpräferenzen
- 11.7
- Benutzerpräferenzen
-
11.8 Autorenwerkzeuge
- 11.8.1
- Inhaltstechnologie
- 11.8.2
- Erstellung barrierefreier Inhalte
- 11.8.3
- Erhaltung von Barrierefreiheitsinformationen bei Umwandlungen
- 11.8.4
- Reparaturunterstützung
- 11.8.5
- Vorlagen
-
12 Dokumentation und Support
Was wird geprüft?
Wenn Apps Funktionen implementieren, die über pfadbasierte Zeiger-Gesten (etwa Streich- oder Zieh-Gesten) oder über Mehrpunktgesten bedient werden können, gibt es Alternativen für die Aktivierung mittels einer einfachen Zeigereingabe.
Bei iOs- und Android-Apps ist "Zeiger" meist der Finger auf dem Touchscreen. "Zeiger" schließt aber auch indirekte Eingaben mittels einer gekoppelten Maus, mittels Stift auf einem Grafiktablett, oder mittels Laser-Pointer ein.
Ausgenommen sind Fälle, in denen die pfadbasierte oder Mehrpunkt-Eingabe essenziell wichtig ist - etwa bei der Handschrifterkennung. Drag-and-Drop-Aktionen gelten nicht als pfadbasierte Geste im Sinne dieser Anforderung.
Diese Anforderung gilt nur für Zeiger-Gesten, die direkt Apps interpretiert und verarbeitet werden - sie betreffen also nicht Gesten für die Bedienung von Betriebssystem oder Hilfsmitteln, etwa Gesten zur Navigation zwischen Apps oder zur Nutzung systemseitiger Screenreader.
Beispiele für pfadbasierte Gesten:
Streichgeste, etwa zum Bewegen etwa von Slider-Bereichen
Ziehen eines Sliders/Range
Zeichnen eines Pfads, z.B. ein 'Z' zum Widerrufen
Beispiele für Mehrpunkt Gesten:
Zwei-Finger-Spreizgeste zum Zoomen (sofern dies von der App und nicht vom Betriebssystem oder einer gesonderten Hilfsmitteltechnologie implementiert ist)
"Split tap" (ein Finger hält und der andere tippt)
Streichen mit mehreren Fingern
Hinweis: Drag-and-Drop-Eingaben gelten nicht als pfadbasiert im Sinne dieses Prüfschritts, da hier nur Beginn und Endpunkt feststehen und der Pfad dazwischen beliebig ist.
Warum wird das geprüft?
Für Menschen mit Bewegungseinschränkungen ist es oft schwierig und teilweise unmöglich, komplexe Zeiger-Gesten erfolgreich auszuführen. Deshalb sollen solche Gesten, wenn Sie von Anwendungssoftware implementiert werden, nicht der einzige Weg sein, eine Funktion auszuführen. Beispiele für komplexe Gesten sind Streichgesten vom Rand her, um Menüs einzublenden, Wischgesten zum Bewegen von Karussell-Inhalten, Zieh-Gesten zum Verstellen von Schiebereglern, oder Mehrpunktgesten wie die Spreizgeste zum Vergrößern eines Kartenausschnitts.
Wie wird geprüft?
1. Anwendbarkeit des Prüfschritts
Der Prüfschritt ist anwendbar, wenn die App Eventhandler implementiert, die auf komplexe Gesten (etwa Streichgesten, Mehrpunkt-Gesten) ansprechen.
2. Prüfung
App mit zu prüfender Ansicht öffnen
Sichtprüfung und Ausprobieren, ob Inhalte komplexe Gesten implementieren (z.B. auf Karussels, Slidern), lassen sich Slider durch Streichgesten bewegen, Werden durch Streichgesten vom Rand her Menüs oder andere Inhalte eingeblendet, Reagieren bestimmte Elemente (etwa Karten) auf die Zwei-Finger-Spreizgeste zum Ändern des Zoomfaktors?
Prüfen, ob die über komplexe Zeigergesten auslösbare Funktion auch über einfache Zeiger-Gesten wie Tippen, Doppeltippen oder Tippen-und-Halten ausgelöst werden kann, etwa durch Aktivierung von alternativen statischen Elementen (z.B. Tasten, die Slider bewegen, Werte erhöhen oder verringern, oder Menüs einblenden)
3. Hinweise
Ausgenommen sind Funktionen, die von Natur aus und notwendigerweise auf komplexen Pfaden oder Mehrpunktgesten basieren. So wird beispielsweise die Eingabe der eigenen Signatur von Natur aus pfadbasiert sein.
Software für die verschiedenen Plattformen wie Windows, MacOS, iOS, Android usw. ist immer einzeln zu bewerten, da hier nicht davon ausgegangen werden kann, dass sich die Software auf jeder Plattform exakt gleich verhält.
4. Bewertung
Erfüllt:
Für alle in der App implementierten komplexen Gesten gibt es alternative Eingabemöglichkeiten über einfache Zeiger-Gesten in den Umgebungen, die in die Prüfung gemäß Accessibility Baseline einbezogen sind.
Quellen
Allgemein
WCAG 2.1: Understanding Success Criterion 2.5.1: Pointer Gestures (zur Zeit nur auf Englisch verfügbar)
Appt.org: Pointer Gestures: Provide altenatives for gestures (mehrere Entwicklungsumgebungen)
iOS
Appt.org: Input gestures on iOS
Android
Appt.org: Input gestures on Android