Der Körper hat Potenzial

Donnerstag, 02. November 2017, 10:09 Uhr
Der Körper hat Potenzial by admin 02-11-17

Categories: Trend

Das Verständnis zwischen Mensch und Maschine wird nicht unbedingt einfacher, sagt Professor Raimund Dachselt. Er erforscht, wie die beiden in Zukunft miteinander kommunizieren: Dachselt ist Inhaber des Lehrstuhls für Multimedia-Technologie am Institut für Software- und Multimediatechnik der Informatikfakultät der TU Dresden.

Professor Dachselt, Sie sind Experte für das Miteinander von Computer und Mensch. Wie lange tippen und wischen wir noch auf unseren Touchscreens herum?

Ich denke, das wird noch eine ganze Weile so bleiben. Die Touch-Interaktion auf Displays, vor allem auf Handys und anderen persönlichen Geräten, hat ja Maus und Tastatur auch keineswegs abgelöst. Im Gegenteil, man nutzt sie ja weiterhin parallel. Beides sind Eingabeformen, die universell sind und deshalb für sehr vielfältige Aufgaben verwendet werden können. Die vielen neuen Interaktionstechnologien, die jetzt am Horizont auftauchen, ob nun Freihandgesten bei Augmented-Reality-Brillen, Augensteuerung oder Sprachinteraktion mit intelligenten Anwendungen, die sind zwar spannend, aber oft noch weit davon entfernt, für ganz normale Alltagssoftware genutzt zu werden. Deshalb werden wir noch lange parallel die älteren Technologien verwenden, die aber für eine Vielzahl von Anwendungen sehr gut und effizient funktionieren. Die neuen Formen sehen wir eher in ausgewählten Gebieten, zum Beispiel Entertainment-Anwendungen.

Woran liegt es, dass wir weit davon entfernt sind?

Das hat zum einen technische Gründe. Vor allem beim Tracking gibt es da in vielen Situationen noch Herausforderungen, also beim Erfassen der Position und Orientierung von Objekten, Händen oder Körperbewegungen. Auch wenn wir beispielsweise an Gesichtserkennung denken, läuft das oft noch nicht robust und sicher genug. Zum anderen verstehen wir auch noch nicht gut genug, was wir mit den neuen Eingabeformen alles anfangen können. Wofür sind sie geeignet, wie präzise sind sie? Kann ich mit diesen neuen Interaktionsformen zum Beispiel eine Excel-Tabelle bearbeiten oder nicht? Da ist vieles noch unklar, und Forschung muss herausfinden, wie gut einzelne Techniken wirklich wofür geeignet sind.

Das iPhone X erkennt immerhin schon Gesichter, aber das meinen Sie nicht, oder?

Die Gesichtserkennung soll da ja primär zur Authentifizierung genutzt werden, vielleicht noch für einige eher spielerische Anwendungen. Unabhängig davon, wie gut sie dann wirklich in der Praxis funktioniert – sicher ist, dass man mit einer Mimiksteuerung auch künftig nur schlecht einen Text schreiben, eine Budgetplanung vornehmen oder eine Architekturzeichnung anfertigen kann. Das macht aber den Unterschied. Was wir beim neuen iPhone sehen, gehört eher in den Bereich einfacher Unterhaltungsanwendungen. Derartige Technologie ist spannend und auch jetzt schon nutzbar, aber noch nicht so stabil und so universell, dass sie im Geschäftsalltag bestehen könnte.

Wird es künftig eher leichter oder schwerer, digitale Technik zu bedienen?

Es wird auf jeden Fall einfacher werden, aber man sollte vorsichtig sein und nicht einfach den Heilsversprechen folgen – aus folgendem Grund: Die Geräte und verfügbaren Technologien werden ja künftig immer vielfältiger. Und so werden sich auch die Formen der Bedienung diversifizieren. Es wird parallel eine Reihe von Eingabeformen geben, mit denen man die Geräte bedienen kann. Es wird Gadgets und spannende Technologien geben in unserem Smart Homes, in urbanen Räumen,
Transportmitteln und in den Arbeitswelten sowieso. Und da immer zu wissen, wie muss ich jetzt welches Gerät bedienen bzw., welche Geste, welcher Blick oder gar Gedanke löst jetzt etwas aus in einem intelligenten und aufmerksamen System, das ist sicher nicht ganz trivial. Also: Ja, es wird einfacher im Detail, aber gleichzeitig auch komplexer durch das Zusammenspiel von vielfältigen Geräten.

Welche neuen Formen der Geräte-Interaktion erforschen Sie derzeit an Ihrem Institut?

Wir beschäftigen uns mit einer Vielzahl von Ausgabegeräten von sehr kleinen, wie Smartwatches, bis zu sehr großen Displaywänden, die auch miteinander in Multi-Display-Umgebungen kombiniert werden können – z.B. persönliche Tablets oder Smartphones mit einer Wand, auf der öffentliche Informationen angezeigt werden. Was die Interaktion, also die Eingabetechniken, betrifft, haben wir bisher ein sehr breites Spektrum untersucht, eigentlich fast alle Modalitäten außer Sprache. Zum Beispiel die Kombination aus Multi-Touch-Gesten in Kombination mit Stifteingabe, oder die räumliche und körperbetonte Eingabe, auch Freihandgesten. Wir machen uns da wunderbare körperliche Fähigkeiten zunutze, wir können uns in unserer Umwelt orientieren und haben eine sehr gute Wahrnehmung und vielfältige Bewegungsmöglichkeiten. Auch Geräte, die ein taktiles Feedback bieten, sind vielversprechend. Zum Beispiel haben wir den neuartigen Eingabecontroller Elasticcon entwickelt. Das ist ein kleines Gerät, das am Gürtel befestigt ist, bei dem ich durch Herausziehen einer Schnur und ihre Auslenkung eine Vielzahl von Anwendungen steuern kann. Und schließlich auch Eyetracking, ein wichtiges Forschungsfeld, auf dem wir lange gearbeitet haben. Da, wo man hinschaut, kann der Augencursor intuitiv zur Eingabe verwendet werden.

Welche Anwendungsszenarien haben Sie für die einzelnen Geräte entwickelt, also für Elasticcon und die Augensteuerung beispielsweise?


Das sind sehr vielfältige. Das liegt daran, dass die Eingabeformen sehr universell sind. Wir erforschen diese Interaktionstechniken grundlegend und beschränken uns zunächst nicht auf eine Anwendung. Man kann sich für die Augensteuerung gut vorstellen, dass man in einem Geschäftsmeeting sitzt, eine Präsentation an der Wand gezeigt wird und man über die Augen damit interagiert, darauf mit dem Blick zeigen kann. Oder dass zwischen mobilen Endgeräten und anderen öffentlichen Displays Informationen und Dokumente ausgetauscht werden können. Elasticcon kann man sich als universelles Eingabegerät und Controller für künftige mobile AR-Anwendungen gut vorstellen, darüber kann ich Menüs steuern, eine Auswahl in Playlists treffen oder zusätzliche Informationen zu Sehenswürdigkeiten einblenden.

Ist es überhaupt gerechtfertigt, immer nach einem Anwendungs-Szenario einer neuen Technologie zu fragen? Nervt Sie das manchmal?

Die Frage ist natürlich sehr berechtigt, und wir versuchen auch immer, nützliche Anwendungen zu adressieren. Trotzdem machen wir natürlich Grundlagenforschung, und da gibt es nicht immer gleich ein konkretes Szenario. Wir versuchen viele Jahre im Voraus zu denken. Die Touchgesten waren ja auch in der Forschung schon viele Jahre bekannt, bevor sie im Massenmarkt angekommen sind.

Welche Form der Geräteinteraktion hat denn Ihrer Meinung nach das Potenzial, in 20 Jahren ganz alltäglich zu sein?

Solche Prognosen sind immer schwierig. Aber ich denke, dass künftig viel über unseren Körper passieren wird, also mit Augensteuerung, mit Bewegungen unserer Hände, unseres Körpers, und das wird einmal selbstverständlich sein. Ich glaube auch, dass diese Eingabeformen nicht als einzige bestehen, sondern immer in Kombination mit beispielsweise exakteren Verfahren eingesetzt werden. Der Computer wird unsere Gesten und Bewegungen erkennen und das als Unterstützung für die Eingabe nutzen – nicht nur als einzige Form. Da wird sehr viel passieren, auch bei der Erkennung von Hirnströmen.

Was Sie da entwickeln, wird die Wirtschaft brennend interessieren – welche aktuellen Kooperationen hat Ihr Lehrstuhl derzeit?

Wir haben eine Vielzahl von Kooperationen, zum einen natürlich mit anderen Universitäten und Institutionen auf der ganzen Welt, zum anderen mit der Wirtschaft, darunter große IT-Firmen und kleinere lokale Firmen mit speziellen Fragestellungen. Derzeit besonders im Bereich Augmented Reality, mobile Schnittstellen auf Tablets oder auch Informationsangebote auf großformatigen Displaywänden. Ein Projekt hatten wir auch mit der Charité, da ging es um einen Simulator zur Diagnostik eines Kindes. Statt eine teure Puppe zu verwenden, haben wir gemeinsam mit einer Berliner Firma eine digitale Darstellung entwickelt und evaluiert, an der die Medizinstudierenden dann bestimmte Abläufe trainieren konnten, bevor sie in Kontakt mit echten Patienten kommen.

Welche Programmiersprachen müssen Ihre Studenten vor allem beherrschen, um an Ihrem Institut die verschiedenen Projekte zu bearbeiten?

Sehr vielfältige Programmiersprachen kommen bei uns zum Einsatz. Vieles ist webbasiert, denn ein Schwerpunkt meiner Professur ist die interaktive Informationsvisualisierung auf verschiedenen Geräten. Das bedeutet, dass wir viel auf Webtechnologien zurückgreifen, und da ist natürlich JavaScript eine wesentliche Sprache, die man beherrschen muss. Und für unsere Forschungsprototypen ist es wirklich ein breites Spektrum: Python als Skriptsprache wird häufig eingesetzt, aber auch klassische Hochsprachen, wie C#, viel Java, auch C++. Die verwendeten Toolkits erfordern da einiges an Flexibilität.
www.imld.de

Das Interview erscheint in der November-Ausgabe von <script>, dem Kundenmagazin von 3m5. 
3m5. kooperiert mit dem Lehrstuhl und ist Praxispartner.


Dieser Controller wird am Gürtel befestigt und ist ein Prototyp für ein Eingabegerät, das auf Gesten basiert. Die Forscher nennen es Elasticcon und setzen es im Bereich Augmented Reality ein.


Auf einem riesigen Monitor zeigt Professor Raimund Dachselt, wie der Körper mit seiner Position im Raum intuitiv riesige Datenmengen bewegt.


Das leuchtende Papier, IllumiPaper, unterstützt digitale Stifte auf normalem Papier, das mittels Elektrolumineszenz selbst leuchten kann.


3m5. Media GmbH

Logo.png20170925 9755 5afz35
Das Internetunternehmen 3m5. stellt spezialisierte Software für Online-Anwendungen her und gehört seit Jahren zu den Technologieführern im Bereich der digitalen Wirtschaft. Zum internationalen Kundenkreis gehören große Versicherungen, Fernsehanstalten und Markenführer aus verschiedenen Branchen - darunter Allianz, ZDF, Ravensburger, Puma und Infineon. 3m5. wurde 1997 von zwei Studenten in Dresden gegründet, an dem sich heute der Hauptsitz befindet. Weitere Standorte sind München und Palo Alto (USA).