Home | Lehre | Videos | Texte | Vorträge | Software | Person | Impressum, Datenschutzerklärung | Blog RSS

Andere Mensch-Maschine-Schnittstellen

Sprachausgabe, Spracherkennung. Diktiersysteme mit sprecherabhängiger Erkennung kontinuierlicher Sprache. Vorteil, wenn es funktioniert: Hände frei, höhere Geschwindigkeit als Zwei-Finger-Suchsystem. Für Call-Center oder zur Bedienung von Geräten mit kleiner Tastatur/kleinem Display (Handy) interessant: sprecherunabhängige Erkennung mit kleinem Vokabular.

3D-Sound. Eher nur für Spiele: Informationswert der Raumposition? Außerdem selbst mit vier Boxen immer kein realistischer 3D-Effekt, mit Kopfhörer bzw. nur zwei Boxen noch schwieriger (persönliche akustische Transferfunktionen bestimmen?).

Datenhandschuh. Erkennt Fingerbeugung, Raumposition und Lage im Raum. Hantieren mit virtuellen Objekten.

Force-Feedback bei Maus, Joystick etc. "Haptik". Programmierung z.B. über Microsoft®-Programmierschnittstelle DirectInput®. Anwendung außerhalb von Spielen z.B.: Ruckeln über anklickbaren Schaltflächen. Datenhandschuh mit Force-Feedback: virtuelle Gegenstände anfassen. Vereinfachte Form: SensAble® Phantom® = 3D-Joystick mit Force-Feedback, z.B. zum 3D-Modellieren.

Head Mounted Display. Komplette Immersion oder aber Ergänzung der realen Welt (Kamera? halbtransparente Datenbrille?) mit Zusatzinfomationen ("augmented reality"). Stereo-Bildwiedergabe fast perfekt (bis auf immer gleiches "Scharfstellen" der Augen). Meist Messung von Blickrichtung und Kopfneigung. Für Augmented Reality oft Erkennung von Markierungen in der realen Welt, um mit echten Gegenständen virtuelle Objekte bewegen zu können. Anwendung bereits jetzt: Anzeigen in Kampfflugzeugen und Autos (Tacho, Infrarot-Bild) von innen auf die Frontscheibe projiziert ("head-up display"). Minimalform des Head Mounted Display: Retinal Scan.

Eye-Tracker. Z.B. per Bildverarbeitung oder per Spannungsmessung um Auge herum die Position der Pupille und damit die Blickrichtung erfassen. Blinzeln erkennen. Anwendungen z.B.: Menüs bedienen, Usability-Test, Kamera auf anvisierten Punkt scharfstellen.

Gestenerkennung. Den Rechner mit Hilfe von Bildverarbeitung "dirigieren".

Nerven. Anwendung z.B. Prothesen steuern. Auswertung z.B. mit Neuronalen Netzen.

Denken. BCI = Brain-Computer Interface. EEG oder Signale implantierter Elektroden auswerten. Benutzer trainiert sich (!) per Feedback. Umgekehrt Signale einspeisen? Bionik? Cyborgs?