Menschen erkennen Gesten und deuten Blicke blitzschnell und nahezu automatisch. Computer und Roboter schaffen dies nicht. Daher forschen Wissenschaftler weltweit daran, wie man die Zusammenarbeit zwischen Mensch und Computer sozialer, effizienter und flexibler gestalten kann. Informatiker aus Saarbrücken und Stuttgart haben nun zusammen mit Psychologen aus Australien einen wichtigen Meilenstein erreicht. Das von ihnen entwickelte Softwaresystem verarbeitet die Augenbewegungen einer Person, um zu berechnen, ob diese verletzlich, gesellig, verträglich, gewissenhaft oder neugierig ist.
„Mit unseren Augen erfassen wir nicht nur die Umgebung, sie sind auch das Fenster zu unserer Seele. Denn sie verraten, wer wir sind, wie wir uns fühlen und was wir machen“, erklärt Andreas Bulling, der in Saarbrücken am Max-Planck-Institut für Informatik und am Exzellenzcluster der Universität des Saarlandes die Forschungsgruppe „Perceptual User Interfaces“ leitet. Mit Wissenschaftlern in Stuttgart und Australien hat Bulling ein eigenes Softwaresystem so trainiert, dass es Augenbewegungen auswerten und darüber auf die Charakterzüge einer Person schließen kann. Das Forscherteam verwendete dafür spezielle Rechenverfahren des Maschinellen Lernens.
Um die Daten für das Training und die Evaluierung zu erhalten, wirkten an der Flinders University in Australien 50 Studenten, darunter 42 Frauen und acht Männer, im Durchschnittsalter von 22 Jahren mit. Nach ihrer Ankunft im Labor statteten die Forscher die Studenten mit einem sogenannten „Eye Tracker“ aus. Dieser filmte die Augenbewegungen der Probanden, während sie rund zehn Minuten über den Campus schlenderten und sich einen Kaffee oder andere Artikel im Campus-Laden kauften. Danach baten die Wissenschaftler die Studenten, die Brillen abzulegen und spezielle Fragebögen auszufüllen, um so auf herkömmliche Art und Weise die Persönlichkeit und den Grad der Neugierde zu bestimmen.
„Um die aufgenommenen Augendaten unabhängig von der jeweiligen Dauer der Aufnahme zu analysieren, haben wir mit einem verschiebbaren Zeitfenster gearbeitet, da so keine Charakteristika abgeschwächt werden“, erklärt Bulling. Aus jedem der sich ergebenden Zeitfenster gewannen die Forscher 207 Merkmale. Zu diesen gehörten Statistiken über Blickfixierungen ebenso wie die Blinzel-Rate. Basierend darauf und auf den Informationen aus den Fragebögen fassten die Forscher pro Persönlichkeitszug rund 100 Entscheidungsbäume zu einem Klassifikator zusammen und trainierten diesen. Das Ergebnis: Im anschließenden Test mit bisher noch nicht verwendetem Datenmaterial konnten sie nachweisen, dass das Softwaresystem sicher Charakterzüge wie emotionale Labilität, Geselligkeit, Verträglichkeit und Gewissenhaftigkeit erkennt.
„Das so gewonnene Wissen über nonverbales Verhalten können wir auch auf Roboter übertragen, so dass diese sich wie Menschen benehmen. Solche Systeme würden dann auf eine viel natürlichere Weise mit Menschen kommunizieren und wären dadurch effizienter und flexibler einsetzbar“, erklärt Bulling den Nutzen der Forschungsergebnisse. Gemeinsam mit Sabrina Hoppe von der Universität Stuttgart, Tobias Loetscher von der University of South Australia im australischen Adelaide und Stephanie Morey von der Flinders University, ebenfalls in Adelaide, hat Andreas Bulling die Ergebnisse in dem Aufsatz „Eye Movements During Everyday Behavior Predict Personality Traits“ diskutiert, den die Forscher im Journal „Frontiers in Human Neuroscience“ veröffentlicht haben. Das Projekt wurde finanziert aus Mitteln des australischen Forschungsrates, des Exzellenzclusters „Multimodal Computing and Interaction“ an der Universität des Saarlandes und durch ein Promotionsstipendium der Stiftung des deutschen Volkes.
Weitere Informationen: www.uni-saarland.de