Freitag, 31. Mai 2013

Zappeln, Schütteln, Fingerzeig – Interfaces jenseits der Touchscheibe

Was nützt der Doppelklick in Gedanken: Kürzlich hat Samsung ein Konzept für eine Tablet-Gedankensteuerung vorgestellt. Damit soll es Personen möglich sein, ein Galaxy Tablet mittels EEG-Sensoren auf dem Kopf zu bedienen, Apps zu starten, Kontakte auszuwählen, Lieder aus Playlists auszusuchen. Das Denkerkappen-Konzept ist allerdings nur ein Test und nicht für den Massenmarkt gedacht, eher um Menschen mit Beeinträchtigungen das Leben zu erleichtern. Dennoch spielt es Überlegungen zu neuen Interface-Konzepten durch – hier die Steuerung via Sensorik.

Denn der Erfolg von Geräten mit Touch-Bedienung führt ja schön vor Augen, dass es weit intuitivere Steuerungen als Maus und Tastatur gibt. Daher mal wieder ein paar Zeilen zu Natural User Interfaces & Co.

Bild: Screenshot von Leap Motions Demovideo.

Vergangene Woche hat Microsoft seine neuen Konsole Xbox One präsentiert. Und damit die neue Version seiner Kinect-Sensorik, die via Kamera und Mikrofon Nutzerkommandos entgegen nimmt. Diese neue Fassung kann bis zu sechs Personen gleichzeitig monitoren. Erfassen, wer von ihnen spricht, wer zum Bildschirm sieht, wer welche Bewegungen ausführt. Entsprechend steht Kinect auch im Zentrum der Big-Brother-Ängste um die neue Xbox – denn dadurch, dass die Konsole via Sprachkommando oder Geste aktiviert werden kann, ist die Sensorik auch im Standby-Modus an. Mir geht es aber nicht um Orwell, mir geht es darum, wie weit dieser Interface-Weg damit schon gekommen ist. Die technischen Möglichkeiten von Kinect sind beeindruckend. Umso mehr, weil schon bei der Vorgänger-Version die spannendsten Anwendungen nicht von Microsoft selbst kamen, sondern Kinect-Hacks waren. 

Was die neue Fassung von Kinect kann, ist  nicht ohne. Diese beiden Clips für TheNextWeb führen die Genauigkeit vor, mit der Kinect inzwischen Bewegungen und Stimme erfassen kann. Beides hat weit mehr Anwendungsmöglichkeiten als „nur“ den Fernseher oder ein Konsolenspiel steuern.  
  




Und Microsoft ist nichtmal der spannendste Anbieter. Über das Startup Leap Motion habe ich hier schon geschrieben. Leap wird inzwischen viel Potenzial zugesprochen, nachdem im Vorfeld zum Produktlaunch im Juli Testversionen rausgegangen sind. Und nun hat ein Demovideo ausgerechnet an Microsofts Windows 8 präsentiert, wie gut eine Bewegungssteuerung am Desktop aussehen kann. Ausgerechnet deshalb, weil der Kinect-Pionier Microsoft mit der gleichen Technik für PCs nicht recht in die Gänge kommt. Immerhin ist die neue Kinect-Variante aber auch schon für PCs angekündigt. Für nächstes Jahr irgendwann.


Mit diesem Tool, das gerade mal 70 Dollar kostet, lässt sich die Kachel-Oberfläche von Windows 8 auf einmal tatsächlich wie bei Touch-Geräten steuern. Das würde einige der Probleme von Win 8 lösen (nicht alle, sie haben auch im Handlungsfluss ihres User Interfaces einiges verbockt. Aber immerhin.). Und Leap wird es tatsächlich im Bundle mit Geräten geben – allerdings von Asus und HP.

Gerätebedienung per Handwink und Sprachkommando. Vom Bürostuhl oder der Couch aus. 

Das stellt einen schnelleren und intuitiveren Weg der Bedienung dar (wenn man es richtig umsetzt). Das ist nicht nur Spielerei, das lässt sich in harte Zahlen packen – ein gutes Natural User Interface ist bis Faktor 8 schneller als ein normales Graphical User Interface.

Und der Wettlauf um immer kleinere Geräte und Wearable Devices wird zwingend zu einem Interface-Wettstreit führen. Denn die Uhr am Handgelenk, das Display vor den Augen oder die sensorbewehrte Jacke lässt sich nunmal nicht mit einer Tastatur bedienen.

Es gibt aber auch ein paar andere interessante Ansätze, Steuerungen "natürlicher" zu machen. Und an Geräten Feedback zu simulieren, wie es bei tatsächlichen Interaktionen auftreten würde. Katherine Kuchenbecker beispielsweise hat in einem sehenswert TED ED Clip ihre Haptography-Projekte vorgestellt. Haptography steht dabei für haptische Fotografie. Das Team zeichnet die haptischen Eindrücke auf, die etwa eine Oberfläche wie eine Leinwand an den Menschen vermittelt, der mit einem Stift darüber fährt. Aus den Daten wird dann ein Simulationsmodell erstellt, um dieses Feedback künstlich zu erzeugen, wenn die Berührung eines Displays oder einer anderen Oberfläche das gleiche Gefühl vermitteln soll. 



Nicht ganz so diffizil, aber auch interessant sind Entwicklung wie die Reactive Grip Technology von Tactical Haptics. Ein Spielecontroller, der Feedback nicht über simples Force-Feedback-Vibrierten liefert, sondern über programmierbare bewegliche Achsen im Griff. Auch das löst ein näher an der tatsächlichen Berührung liegendes Feedback aus.

Wir reden bei diesen Konzepten nicht nur von der Steuerung von TV, Konsole oder Smartphone. Es kann auch als Interface für komplexere Vorgänge dienen. Ein Thema, dem ich noch einmal mit mehr Muße widmen werde. Das hier stellt nur einen kurzen Überblick, ein kurzes Update dar.



Verwandte Artikel:

Keine Kommentare:

Kommentar veröffentlichen