-
5 Allgemeine Anforderungen
- 5.2
- Aktivierung von Barrierefreiheitsfunktionen
- 5.3
- Biometrie
- 5.4
- Erhaltung von Barrierefreiheitsinformationen während der Umwandlung
- 5.5.1
- Möglichkeiten der Bedienung
- 5.5.2
- Unterscheidbarkeit der bedienbaren Elemente
- 5.6.1
- Taktiler oder auditiver Status
- 5.6.2
- Visueller Status
- 5.7
- Tastenwiederholung
- 5.8
- Annahme eines zweifachen Tastenanschlags
- 5.9
- Gleichzeitige Benutzerhandlungen
-
6 Zwei-Wege-Sprachkommunikation
- 6.1
- Audiobandbreite für Sprache
- 6.2.1.1
- RTT Kommunikation
- 6.2.1.2
- Gleichzeitige Verwendung von Sprache und Text
- 6.2.2.1
- Visuell unterscheidbare Darstellung
- 6.2.2.2
- Durch Software bestimmbare Sende- und Empfangsrichtung
- 6.2.2.3
- Sprecheridentifizierung
- 6.2.2.4
- Visuelle Anzeige von Audio mittels RTT
- 6.2.3
- Interoperabilität
- 6.2.4
- Reaktionsfähigkeit von RTT
- 6.3
- Anruferkennung
- 6.4
- Alternativen zu sprachbasierten Diensten
- 6.5.2
- Auflösung
- 6.5.3
- Bildfrequenz
- 6.5.4
- Synchronisation zwischen Audio und Video
- 6.5.5
- Visueller Anzeiger von Audio bei Video
- 6.5.6
- Sprecheridentifizierung mittels Video- (Gebärdensprach-)Kommunikation
-
7 Videofähigkeiten
- 7.1.1
- Wiedergabe der Untertitelung
- 7.1.2
- Synchronisation der Untertitelung
- 7.1.3
- Erhaltung der Untertitelung
- 7.1.4
- Eigenschaften von Untertiteln
- 7.1.5
- Gesprochene Untertitel
- 7.2.1
- Wiedergabe der Audiodeskription
- 7.2.2
- Synchronisation der Audiodeskription
- 7.2.3
- Erhaltung der Audiodeskription
- 7.3
- Bedienelemente für Untertitel und Audiodeskription
-
11.1.1 Textalternativen
- 11.1.1.1a
- Nicht-Text-Inhalt – Bedienelemente
- 11.1.1.1b
- Nicht-Text-Inhalt – Grafiken und Objekte
- 11.1.1.1c
- Nicht-Text-Inhalt – CAPTCHAs
-
11.1.2 Zeitbasierte Medien
- 11.1.2.1
- Reines Audio und reines Video (aufgezeichnet)
- 11.1.2.2
- Untertitel (aufgezeichnet)
- 11.1.2.3
- Audiodeskription oder Medienalternative (aufgezeichnet)
- 11.1.2.4
- Untertitel (live)
- 11.1.2.5
- Audiodeskription (aufgezeichnet)
-
11.1.3 Anpassbar
- 11.1.3.1a
- Info und Beziehungen – Überschriften
- 11.1.3.1c
- Info und Beziehungen – Text
- 11.1.3.1b
- Info und Beziehungen – Tabellen
- 11.1.3.1d
- Info und Beziehungen – Formularelemente
- 11.1.3.2
- Bedeutungsvolle Reihenfolge
- 11.1.3.3
- Sensorische Eigenschaften
- 11.1.3.4
- Ausrichtung
- 11.1.3.5
- Eingabezweck bestimmen
-
11.1.4 Unterscheidbar
- 11.1.4.1
- Benutzung von Farbe
- 11.1.4.2
- Audio-Steuerelement
- 11.1.4.3
- Kontrast (Minimum)
- 11.1.4.4
- Textgröße ändern
- 11.1.4.5
- Bilder von Text
- 11.1.4.10
- Automatischer Umbruch (Reflow)
- 11.1.4.11
- Nicht-Text-Kontrast
- 11.1.4.12
- Textabstand
- 11.1.4.13
- Eingeblendeter Inhalt bei Darüberschweben (Hover) oder Fokus
-
11.2.1 Tastaturbedienbar
- 11.2.1.1
- Tastatur
- 11.2.1.2
- Keine Tastaturfalle
- 11.2.1.4
- Tastaturkürzel
-
11.2.2 Ausreichend Zeit
- 11.2.2.1
- Zeitvorgaben anpassbar
- 11.2.2.2
- Pausieren, stoppen, ausblenden
-
11.2.3 Anfälle
-
11.2.4 Navigierbar
- 11.2.4.3
- Fokus-Reihenfolge
- 11.2.4.4
- Linkzweck (im Kontext)
- 11.2.4.6
- Überschriften und Beschriftungen (Labels)
- 11.2.4.7
- Fokus sichtbar
-
11.2.5 Eingabemodalitäten
- 11.2.5.1
- Zeigergesten
- 11.2.5.2
- Abbruch der Zeigeraktion
- 11.2.5.3
- Beschriftung (Label) im Namen
- 11.2.5.4
- Betätigung durch Bewegung
-
11.3.1 Lesbar
- 11.3.1.1
- Sprache der Software
-
11.3.2 Vorhersehbar
- 11.3.2.1
- Bei Fokus
- 11.3.2.2
- Bei Eingabe
-
11.3.3 Eingabeunterstützung
- 11.3.3.1
- Fehlerkennzeichnung
- 11.3.3.2
- Beschriftungen (Labels) oder Anweisungen
- 11.3.3.3
- Vorschlag bei Fehler
- 11.3.3.4
- Fehlervermeidung (rechtlich, finanziell, Daten)
-
11.4.1 Kompatibel
- 11.4.1.1
- Syntaxanalyse
- 11.4.1.2
- Name, Rolle, Wert
- 11.4.1.3
- Statusmeldungen
-
11.5 Barrierefreiheitsdienste
- 11.5.2.3
- Verwendung von Barrierefreiheitsdiensten
- 11.5.2.5
- Objektinformationen
- 11.5.2.6
- Zeile, Spalte und Kopfzeilen
- 11.5.2.7
- Werte
- 11.5.2.8
- Label-Beziehungen
- 11.5.2.9
- Eltern-Kind-Beziehungen
- 11.5.2.10
- Text
- 11.5.2.11
- Liste der verfügbaren Handlungen
- 11.5.2.12
- Ausführung der verfügbaren Handlungen
- 11.5.2.13
- Nachverfolgung des Fokus und der Auswahlattribute
- 11.5.2.14
- Änderung des Fokus und der Auswahlattribute
- 11.5.2.15
- Änderungsbenachrichtigung
- 11.5.2.16
- Änderungen von Zuständen und Eigenschaften
- 11.5.2.17
- Änderungen von Werten und Text
-
11.6 Barrierefreiheitsfunktionen
-
11.7 Benutzerpräferenzen
- 11.7
- Benutzerpräferenzen
-
11.8 Autorenwerkzeuge
- 11.8.1
- Inhaltstechnologie
- 11.8.2
- Erstellung barrierefreier Inhalte
- 11.8.3
- Erhaltung von Barrierefreiheitsinformationen bei Umwandlungen
- 11.8.4
- Reparaturunterstützung
- 11.8.5
- Vorlagen
-
12 Dokumentation und Support
Prüfschritt 6.5.6 Sprecheridentifizierung mittels Video- (Gebärdensprach-)Kommunikation
Was wird geprüft?
Wenn eine App Videotelefonie unterstützt und die Aktivität von Sprechenden angezeigt wird, soll dies auch für Nutzende von Gebärdensprache gewährleistet sein.
Warum wird das geprüft?
Die Anzeige einer Gebärden-Eingabe ermöglicht Nutzenden die Wahrnehmung, dass jemand gerade Eingaben in Gebärdensprache macht und wer dies tut.
Wie wird geprüft?
1. Anwendbarkeit des Prüfschritts
Der Prüfschritt ist anwendbar, wenn eine App Videotelefonie unterstützt und eine Anzeige der Sprechaktivität von Sprechenden bietet.
2. Prüfung
Die Ansicht der App auf zwei Geräten mit abweichenden Nutzenden-Konten öffnen.
Videotelefonieverbindung zwischen den beiden Instanzen der App herstellen.
Auf dem verbundenen Gerät die Eingabe von Gebärden starten.
Prüfen,
ob die App die Möglichkeit bietet, den Start einer Gebärden-Eingabe manuell zu signalisieren ((d.h. die Anzeige des Aktivitätszustandes zu aktivieren) oder
die Eingabe von der App automatisch erkannt und in Folge der Aktivitäts-Zustand automatisch gesetzt wird.
Prüfen, ob die Aktivität der Gebärden-Eingabe wahrnehmbar ist.
3. Hinweise
Es spielt für die Überprüfung vermutlich keine Rolle, ob die Eingabe von Gebärdensprachen-Kundigen vorgenommen wird oder nur ähnliche Bewegungen gemacht werden, eine Eingabe also nur simuliert wird.
Für den Indikator der Aktivität von Gebärdenden gelten weitere Anforderungen, z.B. bezüglich Grafik-Kontrast.
Für Hinweise zu diesem Prüfschritt können Sie auf GitHub ein Issue zu diesem Prüfschritt eröffnen.
Einordnung des Prüfschritts
Einordnung des Prüfschritts nach EN 301 549 V3.2.1
6.5.6 Speaker identification with video (sign language) communication
Where ICT provides speaker identification for voice users, it shall provide a means for speaker identification for real-time signing and sign language users once the start of signing has been indicated.
NOTE 1: The speaker ID can be in the same location as for voice users for multiparty calls.
NOTE 2: This mechanism might be triggered manually by a user, or automatically where this is technically achievable.