Mehrere Bildschirme mit einer Eye-Tracking-Brille gleichzeitig nutzen

Marketingexperten nutzen gerne Eye-Tracking-Brillen, um zum Beispiel zu analysieren, wohin Blicke von Konsumenten im Supermarktregal wandern. Auch bei Computerspielen kommen diese mittlerweile zum Einsatz. Die Brillen sind dabei allerdings immer nur auf einen einzigen Bildschirm geeicht. Mehrere Displays zeitgleich anzusteuern, macht nun ein neues Verfahren von Saarbrücker Informatikern möglich: So kann man etwa ein Tablet, einen Fernsehbildschirm und ein PC-Display parallel mit Tracking-Brille nutzen. Eine Software vergleicht dazu permanent alle Daten der beteiligten Geräte. Die Technik könnte etwa für Chirurgen im Operationssaal oder für Ingenieure in Produktionsanlagen von Interesse sein.

Mit einer im Handel erhältlichen Eye-Tracking-Brille lassen sich relativ einfach Blickbewegungen des Nutzers erkennen. Das Gerät besitzt zwei Kameras: Eine kleine Infrarot-Kamera ist zum Nutzer hingewandt und erkennt die Bewegungen der rechten Pupille. Die andere Kamera (Frontkamera) ist nach vorne gerichtet und erfasst das Bild, das auch der Nutzer sieht. Eine Software kombiniert die Bilder beider Kameras und erkennt so, wohin das Auge genau schaut. Die Technik ist nicht nur für Marktforscher interessant, sondern ist auch schon bei ersten Computerspielen im Einsatz – etwa um Charaktere am Bildschirm mit Blickbewegungen zu steuern.

„Damit solche Datenbrillen richtig arbeiten und den Display erkennen, müssen sie zuvor kalibriert werden“, sagt Antonio Krüger, Professor an der Universität des Saarlandes und Leiter des Innovative Retail Laboratory am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Bislang war die Technologie nur in der Lage, mit einem einzigen Bildschirm zu arbeiten. Die Saarbrücker Forscher um Krüger und seinen Doktoranden Christian Lander haben nun ein Verfahren entwickelt, das es ermöglicht, mehrere Bildschirme in einem Raum mit der Brille gleichzeitig zu nutzen: zum Beispiel einen Flachbildschirm an der Wand, ein Tablet auf dem Sofatisch und einen PC-Bildschirm auf dem Schreibtisch.

„Bei unserer Technik nutzen wir einen Server, der bestimmte Merkmale der einzelnen Bildschirme wie beispielsweise die Auflösung und Größe erkennt“, so Christian Lander, Leiter des Projekts. Darüber hinaus schicken die Displays in regelmäßigen Abständen Informationen zu den gezeigten Inhalten an den Server, beispielsweise ob ein Textdokument, ein Foto oder Video zu sehen ist. Dadurch hat dieser alle Bildschirme und deren Inhalte stets im Blick. Außerdem liefert die Frontkamera des Eye-Trackers weitere Bilder. „Unsere Software vergleicht die eingehenden Daten mit denen der Nutzerkamera. Sie erkennt so, ob der Nutzer auf das Tablet auf dem Tisch oder den Fernsehschirm an der Wand schaut“, sagt Lander weiter.

Damit die Tracking-Brille die Geräte erkennt, muss jedes einzelne von ihnen im Vorfeld einmal vom System erfasst werden. Das Verfahren erlaubt dem Nutzer zudem eine gewisse Flexibilität: Die Bildschirme müssen nicht an einem festen Ort im Raum bleiben. Das System erkennt beispielsweise ein Tablet, egal ob es auf einem Tisch liegt oder ob der Nutzer es in den Händen hält. Die Technologie könnte zum Beispiel für Chirurgen von Interesse sein, die sich während einer Operation auf verschiedenen Bildschirmen gleichzeitig Röntgenbilder und andere Daten des Patienten anzeigen lassen. Außerdem ist ein Einsatz bei Produktionsanlagen in der Industrie denkbar.

An der Arbeit waren auch Forscherkollegen um Andreas Bulling vom Max-Planck-Institut für Informatik sowie um Sebastian Boring von der Universität in Kopenhagen beteiligt. Die Informatiker präsentieren ihre Arbeit auf dem „28th ACM User Interface Software and Technology Symposium“ im November im US-amerikanischen Charlotte.

Weitere Informationen: www.uni-saarland.de

Speichere in deinen Favoriten diesen permalink.