Azzurri
05.09.08, 14:53
Der Computer-Hersteller Apple will die Nutzbarkeit von Multi-Touch-Oberflächen durch die Kombination mit anderen Eingabemethoden deutlich ausweiten. Dadurch sollen die bestehenden Beschränkungen überwunden werden.
Die neue Technologie nennt sich "Multitouch Data Fusion". Sie verbindet die Eingabe oder Touchscreen mit der Erkennung von Sprachbefehlen sowie der Auswertung von Handgesten und Augenbewegungen, die von einer Webcam aufgenommen wurden.
Nach Angaben der Entwickler sind die Möglichkeiten eines Multi-Touch-Interfaces beispielsweise bei der Manipulation von Objekten begrenzt. So lassen sich in einer Bildbearbeitung zwar einzelne Elemente sehr gut per Finger anordnen, die Änderung der Farbgebung lässt sich hingegen per zusätzlichem Sprachbefehl deutlich einfacher realisieren.
Aufnahmen der Augen per Webcam ermöglichen es demnach, das Objekt ausfindig zu machen, welches gegenwärtig im Mittelpunkt des Nutzerinteresses steht. Dieses kann so automatisch auf dem Display markiert werden. Gleichzeitig nimmt die Kamera auch die Handbewegungen auf. Werden die daraus gewonnenen Daten mit den Berührungsimpulsen des Touch-Panels abgeglichen, lässt sich den Angaben zufolge eine genauere Bedienung realisieren.
Ausgestellt ist das neue Patent auf John Elias und Wayne Westerman. Diese waren als Top-Manager bei der Firma Fingerworks tätig, die Apple im Zuge der iPhone-Entwicklung übernahm.
Quelle: http://winfuture.de/news,42039.html
Die neue Technologie nennt sich "Multitouch Data Fusion". Sie verbindet die Eingabe oder Touchscreen mit der Erkennung von Sprachbefehlen sowie der Auswertung von Handgesten und Augenbewegungen, die von einer Webcam aufgenommen wurden.
Nach Angaben der Entwickler sind die Möglichkeiten eines Multi-Touch-Interfaces beispielsweise bei der Manipulation von Objekten begrenzt. So lassen sich in einer Bildbearbeitung zwar einzelne Elemente sehr gut per Finger anordnen, die Änderung der Farbgebung lässt sich hingegen per zusätzlichem Sprachbefehl deutlich einfacher realisieren.
Aufnahmen der Augen per Webcam ermöglichen es demnach, das Objekt ausfindig zu machen, welches gegenwärtig im Mittelpunkt des Nutzerinteresses steht. Dieses kann so automatisch auf dem Display markiert werden. Gleichzeitig nimmt die Kamera auch die Handbewegungen auf. Werden die daraus gewonnenen Daten mit den Berührungsimpulsen des Touch-Panels abgeglichen, lässt sich den Angaben zufolge eine genauere Bedienung realisieren.
Ausgestellt ist das neue Patent auf John Elias und Wayne Westerman. Diese waren als Top-Manager bei der Firma Fingerworks tätig, die Apple im Zuge der iPhone-Entwicklung übernahm.
Quelle: http://winfuture.de/news,42039.html