User Interfaces for People with Disabilities
Anna Andrushko
Einleitung
Das Ziel von Mensch - Maschine Schnittstellen ist, einen kommunikativen Pfad zwischen Computersoftware und menschlichen Benutzern herzustellen. Der Bildschirm von früher hat den Benutzern nur textuelle und numerische Informationen präsentiert.
Seit Mitte der 80er Jahre hat die Computerindustrie einen zunehmenden Gebrauch von grafischen Benutzeroberflächen (GUIs) als Grund gesehen um die Kommunikation zwischen Benutzern und Computern zu verbessern. Diese GUIs haben mehrere definierende Merkmale. Zuerst verwenden sie häufig piktografische Darstellungen von Anwendungen und Dateien. Diese Darstellungen werden Ikonen (icons) genannt. Das Bild, das mit einer Anwendung oder Datei assoziiert wird, gibt einen Hinweis was dieses bestimmte Objekt darstellt. Zweitens teilen GUIs normalerweise den Bildschirm in visuell segmentierte Bereiche, Fenster (Windows) genannt. Jedes Fenster ist sich als ein Container für die Informationen vozurstellen und erlaubt den Benutzern die Informationen, die sie ansehen zu manipulieren, indem sie die Fenster umordnen. Drittens wird bei den GUIs normalerweise ein Zeigegerät (gewöhnlich eine Maus) benutzt, deren Aufgabe ist es, die Position des Bildschirm Cursors zu verändern.
Problemstellung
Computernutzeroberflächen sind von deren grafischen Inhalt abhängig. Diese grafische Benutzeroberflächen sind für Blinde oder Sehbehinderte meistens unzugänglich. Um die Computer für solche Benutzer zugänglich zu machen, ist es notwendig, eine neue Schnittstelle zu entwickeln, die visuelle Kommunikation durch die taktile und audio Kommunikation ersetzt.
Neben dem Sehvermögen ist das Hörvermögen die menschliche Fähigkeit, mittels der der grösste Teil von Informationen übermittelt werden kann. Das Gehör hat eine große „Bandbreite“ für die Informationsübertragung. Benutzer, die blind sind, verlassen sich deshalb auf das Hören als ein Mittel, Informationen von ihrem Computer zu sammeln. Im Fall von textuellen Computerschnittstellen (in dem nicht viele Informationen auf dem Bildschirm präsentiert werden) genügt die Übersetzung des Textes zur Sprache, der Computer liest dem Nutzer also die Informationen vor, den Bedürfnissen der meisten sehbehinderten Menschen. Sehenden und nichtsehenden Benutzern werden die Information in einem Linie-für-Linie Format präsentiert. Beide Benutzertypen verlassen sich allgemein auf die Tastatur, um Text einzugeben und Befehle auszuführen.
Fenster präsentieren eine einzigartige Herausforderung weil sogar mit einer direkten audio Darstellung des Inhalts von verschiedenen Fenstern auf dem Bildschirm, gibt es noch das Problem von verdeckten Fenstern. Viele Bildschirm Leser können den Inhalt von Fenstern, die durch andere Objekte verdeckt sind, nicht abrufen.
Zum Beispiel im geläufigen Prototypsystemen auf die pop up Fenster, die auf Fehlermeldungen hinweisen kann schwer zugegriffen werden. Wenn ein Signal auf eine Fehlermeldung hinweist, dann muss der blinde Benutzer den Screen nach der Nachricht durchsuchen. Wenn diese Meldung nicht auch noch mit einem akustischen Hinweis begleitet wird, wird sie wahrscheinlich unbemerkt bleiben.
Die Nutzung einer Maus ist ebenfalls problematisch, da die Bewegung der Maus den Bildschirmcursor in die gewünschte Position bringt; es gibt also kein Äquivalent der Mausposition zur absoluten Position des Bildschirm Cursors.
Klassifikation von Behinderungen
Die Entwicklung von Benutzeroberflächen erfolgt nach der Unified User Interface Design (UUID) Methodologie, die als effektivste Methode für alle Benutzer (einschließlich älterer und behinderte Mitmenschen) angesehen wird um ein Ziel auf der Benutzeroberfläche zu erreichen. Zu der Gruppe behinderter Menschen gehören Blinde und Sehbehinderte. Für diese Gruppe ist das Design der Eingabegeräte mit einer standardisierten Position sehr wichtig. Es sind spezielle Ein/Ausgebegeräte im System integriert worden, um Blinde und Körperbehinderte zu unterstützen: binäre Schalter, Joysticks, Sensorbildschirme, Spracheingabe/ Ausgabe und Braille Displays. Blinde nutzen als Bildschirm am PC so genannte Braille-Displays: Punktschrift-Lesezeilen, also Ausgabegeräte, die mit den Fingern ertastet und durch die spezifischen Matrixen für jeden Buchstaben gelesen werden können.
Ein interessanter Ansatz in der Richtung Sehbehinderten Hilfe verfolgt die Software Sonic Finder. Dieses Programm wurde von Bill Gaver (Apple Computer's Human Interface Group) entwickelt. Der Sonic Finder ist eine Prototyp-Version des Macintosh-Finders. Der Sonic Finder verwendet die selben Töne, die den Sehbehinderten in seiner altäglichen Welt begeiten. Man kann die auf dem Comupter angezeigten Objekte "anklopfen" um deren Typ zu bestimmen (z.B. Anwendungen, Platten, Ordner) und deren Größe (kleine Objekte haben hohe Töne, große Objekte haben niedrige Töne) zu bestimmen. Wenn ein Objekt auf ein anderes Objekt trifft, hört man einen komplett anderen Ton.[2]
Die Funktionsweise kann anhand eines Beispiels mit der Datei, die in den Papierkorb verschoben wird erklärt werden. Diese vierstufige Aktion wird von verschiedenen Töne begleitet:
A) der Benutzer wählt die Datei aus. Dies wird mit einem Ton angezeigt
B) der Benutzer zieht die Datei über die Arbeitsfläche zum Papierkorb, was von einem kratzenden Ton begleitet wird
C) der Benutzer erreicht den Papierkorb, der kratzende Ton hört auf, dafür hört man den spezifischen Ton des Papierkorbs
D) der Benutzer lässt die Datei fallen und der Ton für diesen Schritt signalisiert das das Objekt gelöscht wurde
Eine andere behinderte Benutzergruppe ist die Gruppe mit Gehör Beschädigung, für die zusätzlich zur akustischen Ausgabe die Informationen visuell präsentiert werden.
Wenn man die Mensch – Machine Interaktion betrachtet, kann man feststellen, dass die Kommunikation in verschieden sensor- modalen Richtungen stattfindet: hauptsächlich visuell vom Computer zum Mensch und motor / taktil vom Mensch zum Computer. Dies ist selbstverständlich, unterscheidet sich aber gänzlich von der alltäglichen Mensch zu Mensch Kommunikation.
Auf dem Prinzip der menschlichen Fähigkeit seinen Blick und somit seine Aufmerksamkeit auf verschiedene Objekte zu richten, beruht das Verfahren „Non-Intrusive Eye Tracker“ von LC Technologies Inc. Eine Videokamera, die unter dem Bildschirm befestigt wird, verfolgt die Position der Pupille und wandelt die Daten in Bildschirmkoordinaten um. So können die Augen als Zeiger benutzt werden. [2]
Geistig Behinderte, Körperbehinderte und ältere Leute haben oft wenig Kraft und ein eingeschränktes Koordinationsverhalten. Diese Gruppe bevorzugt die Kommunikation mittels Menues, die sich auf Bildern in Kombination mit dem gesprochenen Text basieren, da viele geistig behinderte Personen weder lesen noch schreiben können. Einige Personen der betroffenen Gruppe berichteten, dass sie Schwierigkeiten haben sich ein Kennwort zu merken und es geheim zu halten. Für diese Benutzergruppe ist die Identifizierung mittels Fingerabdruck als Kennwortersatz die optimalste Lösung. Für Benutzer mit leichten Formen der Dystrophie und älteren Personen sollte die grafische Schnittstelle (d.h. Objekte und damit assozierte Manipulationstechniken) weniger empfindlich bei ziellosen Handbewegungen gemacht werden.
Die Web Nutzung stellt eine andere Art der Herausvorderung dar. Laut Web Content Accessibility Guidelines 1.0, eine W3C Empfehlung, die 1999 verabschiedet worden ist, wird bei Browsern, bzw. bei den Seiten im Web großen Wert auf zusätzliche Aspekte im Bezug auf Menschen mit Behinderungen gelegt. Dabei müssen entsprechende Anpassungen der Benutzeroberfläche vorgenommen werden.
An dieser Stelle ist Farbenblindheit zu erwähnen. Die Farbenkontrolle muss besonders für die Web Nutzer stattfinden. Es muss sichergestellt werden, dass farbig gekennzeichnete Informationen auch ohne Darstellung von Farben verständlich gemacht werden. Neuere Seiten benutzen oft eine Formatvorlage um Farben zu kontrollieren. Man kann diese Vorlage ausschalten und dafür seine eigene verwenden. Der Kontrast zwischen Vordergrund- und Hintergrundfarben muss gewährleistet werden.
Generell verlassen sich sehbehinderte Personen auf Bildschirm-Leser und/oder aktualisierbare Braille Dispays. Einige Menschen benutzen extragroße Monitore oder Bildschirmlupen, andere textbasierte Browser wie Lynx oder Stimmenbrowser. Sie können auch schnelle Navigationsstrategien wie Tabellierung durch die Überschriften oder Links verwenden.
Für taube Benutzer sind die Vermittlung von Mediadateien und anderen Audioinhalten mit Schwierigkieten verbunden. Die Priorität bei solchen Inhalten wird auf die textuelle Darstellung gelegt. Für jedes Non–Text Element muss eine äquivalente Alternative von einem Text Element vorliegen. Das schließt Töne, autonome Audiodateien, Audiospuren von Videos und Videos mit ein.
Für Personen mit Aufmerksamkeitsstörungen muss es die Möglichkeit geben, Animationen auf der Seite abzuschalten um sich auf den Inhalt zu konzentrieren. Der Mangel einer klaren und konsequenten Organisation von Webseiten und fehlende Grafiken wirken sich negativ auf diese Benutzergruppe aus.[3]
Ansätze in der Forschung
Auf der Basis von Forschungen auf diesem Gebiet sind Prototypsysteme entstanden, die sehbehinderten Benutzern Zugriff auf einen Computer mittels GUI ermöglichten. Eine Eigenschaft der meisten dieser Forschungsprototypen sind, dass sie sich immer noch an dem zugrundeliegenden Modell der visuellen Oberfläche orientieren. Zum Beispiel bieten viele der oben genannten Systeme die Möglichkeit, dass die Namen von Fenstern oder Bildschirmikonen ausgesprochen werden, wenn der Cursor auf diese zeigt. Solche Systeme erweitern lediglich die grafische Informationen auf dem Bildschirm mit auditorischem Feedback.
Die Multimedia Computing Group von Universität Georgia hat 1992 ein Projekt gestartet in dem die Benutzeroberfläche für Blinde und Sehbehinderte auf eine Windows und Unixplattform gestellt werden soll.
Bei „Mercator“ Umgebung wird an einem Prototypsystem gearbeitet, das die selbe Funktionalität wie heutige grafische Benutzeroberflächen zur Verfügung stellt. Es ermöglicht den Benutzern Objekte wie Dateien, Datenbanken und Anwendungen zu identifizieren und zu manipulieren. Es wird möglich sein Objekte in sinnvolle Assoziationen anzuordnen, Informationen zwischen Objekten zu übertragen und Objekte auf der Oberfläche zu bewegen, sowie auch die Objekte zu erzeugen, entfernen, modifizieren und zu kopieren. Die Objekete werden durch distinktiven Tonschablonen gesucht und identifiziert.
Der Benutzer wird mit dem System durch die Kombination von Stimmeingabe, Sensoreingabe, und Tastatureingabe interagieren. Diese Eingabemittel werden dem Benutzern erlauben, Objekte auszuwählen und zu manipulieren in einem virtuellen Raum, der durch Stereo- und andere Audioeffekte geschaffen wurde. Die Ausgabe wird durch die Erzeugung von drei-dimensionalen Audioraum und durch Sprachsynthese erreicht.
Eine wichtige Eigenschaft dieser Oberfläche wird die Fähigkeit sein Grafik- und Textausgabe auf die Audio- und Sensorausgabe abzubilden. Es wird den Anwendern ermöglichen, innerhalb der Mercator Umgebung zu arbeiten und die Zusammenarbeit zwischen normalen und blinden Benutzern zu fördern.
Zusätzlich zur Benuteroberfläche werden Kernanwendungen umgeschrieben um den Zugang auf eine Unix Umgebung zu erleichtern. Zum Beispiel wird eine interaktive Hilfe durch ein Online-Hyper-Audiosystem zur Verfügung gestellt, die die Funktionen des Online-Handbuches und der Shell kombiniert um Objekte aufzufinden, zu identifizieren und zu beschreiben. Diese Kernanwendungen werden gefunden und ersezt, um blinden Benutzern eine effektivere Nutzung von System zu ermöglichen.[1]
Ein anderer Ansatz wurde vom GMD - Forschungszentrum Informationstechnik vorgestellt. Dabei handelt es um die Nutzung öffentlich zugänglichen Terminals in Flughäfen, Bahnhöfen und Banken, sowie der PCs auf Messen, Kongressen. Durch die Verschiedenartigkeit der Benutzungsoberflächen sehen sich sowohl erfahrene Benutzer als auch ältere und behinderte Menschen mit Problemen konfrontiert.
Ziel des Projekts “Datenchips für Personalisierungsinformation” ist es, das Einsatzpotential kontaktloser Chipkarten und anderer Medien zur individuellen Anpassung von Benutzeroberflächen zu untersuchen und den Nutzen dieser Technologien zu evaluieren.
Benutzeroberflächen und Anwendungen, die sich an die Bedürfnisse des Benutzers individuell anpassen, können Informationsdefiziten entgegenwirken. Zur Speicherung und Übertragung personenbezogener Informationen bieten sich kontaktlose Datenchips in Plastikkarten und anderen Trägern an.
Die auf einer Chipkarte befindlichen Informationen können nicht nur für Anpassungen der Benutzeroberfläche verwendet werden, wie z.B. Landessprache, Schriftgröße, Kontrast, verwendete Ein-/ Ausgabegeräte, bevorzugte Anwendungsprogramme, sondern können auch an Anwendungsprogamme weitergereicht werden. Weitere Vorteile aus Benutzersicht sind dann die insgesamt konsistentere Benutzungsoberfläche und das weitgehende Wegfallen von Login-Prozeduren.
Anwendungen, die zur Anpassung an den Benutzer in der Lage sind, werden im GMD Projekt “AVANTI” entwickelt. Dabei wird das Ziel verfolgt, einem Kreis von Benutzern, auch bestimmten Behindertengruppen multimediale Informationen über eine Region oder Stadt adäquat anzubieten. Gesteuert werden diese Anpassungen durch Annahmen über die Interessen, Kenntnisse und Fähigkeiten des Benutzers, die in sog. “Benutzermodellen” gespeichert werden. Fortgeschrieben und erweitert wird das Benutzermodell u.a. durch eine Beobachtung des Interaktions- und Navigationsverhaltens des Benutzers innerhalb des AVANTI-Systems, aus dem Rückschlüsse auf die speziellen Interessen des Benutzers gezogen werden.
Der Zugriff auf das AVANTI-System kann über das World Wide Web (WWW) sowohl von öffentlich zugänglichen Stellen und auch von entsprechenden mobilen Geräten (z.B. Laptops) aus erfolgen.[4]
Die vorgestellte Forschungsansätze sind nur ein kleiner Teil von dem gesamten Angebot, das man heutzutage im Netz findet. Die Unterstützung von behinderten Benutzern bei der Computernutzung nimmt von Jahr zu Jahr zu. Es gibt dieser Benutzergruppe immer mehr Gründe sich nicht benachteiligt zu fühlen und am alltäglichen Leben teilnehmen.
Literatur
[1] The Mercator Environment: “A Nonvisual Interface to X Windows and Unix Workstations” Elizabeth Mynatt and W. Keith Edwards, Multimedia Computing Group, Georgia Institute of Technology, Atlanta Georgia, 30332-0280
[2] Human skills in interface design. Buxton,W. (1994), University of Toronto und Xerox Palo Alto Research Center
[3] http://www.w3.org/WAI/EO/Drafts/PWD-Use-Web/
[4] Individualisierung von Benutzerschnittstellen mit Hilfe von Datenchips für Personalisierungsinformation. Fink, J., Kobsa,A., Jaceniak,I., GMD - Forschungszentrum Informationstechnik GmbH, URL: http://www.ics.uci.edu/~kobsa/papers/1997-GMD-kobsa.pdf
[5] Virtual Environments and Advanced Interface Design.. Furness, A.T., Woodrow (EDT) Barfield (1995) Oxford University Press URL:http://www.ercim.org/publication/Ercim_News/enw39/stephanidis.html
[6] Developing Dual User Interfaces for Integrating Blind and Sighted Users : the HOMER UIMS Savidis,A., Stephanidis,C. ,Institute of Computer Science Foundation for Research and Technology-Hellas (FORTH)
[7] Designing User Interfaces for All. Constantine Stephanidis,C. Institute of Computer Science Foundation for Research and Technology, URL: http://trace.wisc.edu/world/web/