Vor drei Jahren ging das Team von Thalmic Labs mit einem neuen Wearable an die Öffentlichkeit. Und das war ziemlich beeindruckend: Ein mit Sensoren bestücktes Armband, mit dem sich Software durch Gesten bedienen lässt.

Mit Myo lässt sich beispielsweise iTunes oder Netflix steuern, nur durch die Bewegungen von Arm und Hand. Und auch Drohnen sollen über das Armband gelenkt werden können.

Das sind faszinierende Optionen, aber die Möglichkeiten mit einem solchen Gadget gehen noch viel weiter. Wie nun bekannt wurde, nutzt ein Forscher-Team der Arizona State University Myo, um Gebärdensprache in Schrift übersetzen zu lassen. Das berichtete das Magazin Technology Review. Sceptre heißt das Projekt.

Den Wissenschaftlern gelang es bereits, einer Software mit Hilfe von Myo einige Gesten der American Sign Language beizubringen. Gebärden für Kopfschmerzen oder „Ich kann nicht schlafen“ werden dabei direkt auf dem Bildschirm in Schriftform übersetzt. Die Trefferquote lag laut Studie bei 98 Prozent.

Wie Technology Review aufzeigt, steht ein solches Projekt allerdings noch vor einer Vielzahl an Herausforderungen. Besonders schwierig ist es, dem System beizubringen, auch abweichende Gesten zu erkennen, erklärte Roozbeh Jafari, Juniorprofessor der Texas A&M Universität, gegenüber dem Magazin. Jafari arbeitet an einem ähnlichen Projekt, nutzt aber selbstentwickelte Sensoren.

Natürlich ist der Ansatz von Softwaresteuerung durch Bewegungen nicht neu. Auch Google arbeitet an der Bedienung von Geräten durch Gestik. Hier ist der Ansatz jedoch ein anderer: Im Gegensatz zum Wearable von Thalmic Labs liegt der Fokus hier auf kleinen Sensoren, die im jeweiligen Gadget eingebaut sind. Durch sie können Bewegungen erkannt und umgesetzt werden.

Bild: Thalmic Labs